llama-3.1-8b-fast · Workers AI
◆ modelo llama-3.1-8b-instruct-fast ▲ contexto ~6 000 tokens por conversación ⚠ datos hasta inicio 2024 ⚠ cuota 10 000 neurons/día · ~300–500 respuestas 📊 cargando...

Enter para enviar · Shift+Enter nueva línea