AI_CHAT //
llama-3.1-8b-fast · Workers AI
◆ modelo llama-3.1-8b-instruct-fast
▲ contexto ~6 000 tokens por conversación
⚠ datos hasta inicio 2024
⚠ cuota 10 000 neurons/día · ~300–500 respuestas
📊 cargando...
Enter para enviar · Shift+Enter nueva línea