sergioch23.bsky.social
@sergioch23.bsky.social
Como conclusión final, no es que ya sea absolutamente impresionante, porque lo es. Lo mejor de todo es que esto lo estoy ejecutando en un MacBook Pro M1 Pro 32GB, un portátil, es que es UN PORTÁTIL!!!!

Para probarlo: ollama run deepseek-r1:32b
January 28, 2025 at 2:21 PM
Me hace gracia eso de "como son idiotas, voy a meterle un emoji"

Spoiler, al final lo mete en la respuesta:
January 28, 2025 at 2:19 PM
Por último, se lo piensa y dice... "a ver, tengo que explicarle que este método no sirve para todo, voy a explicarle otros"
January 28, 2025 at 2:17 PM
Luego, busca una estrategia para solucionarlo, la parte final es clave aquí, "Then, verify these by plugging them back into the original equation to ensure they work."
January 28, 2025 at 2:16 PM
Primero, se hace un resumen, y luego se dice "cuidao, que tengo que explicarlo para tontos"
January 28, 2025 at 2:15 PM
Congrats and thanks, this is so helpful for lot of people!
January 23, 2025 at 12:32 PM
Pero el usuario final no está viendo nada de esto (nótese el <think></think>

Después de "pensárselo", nos da la respuesta.
January 21, 2025 at 3:44 PM
Y es porque primero "PIENSA" bien la pregunta e itera sobre la misma, aquí en la imagen se puede observar que se hace ciertas preguntas, como... #compose es un toolkit the #google para construir uis en #android. Utiliza el approach de #kotlin. Para dar un hello world tengo que ver qué hace falta...
January 21, 2025 at 3:43 PM
Y está guay porque aquí vemos como funcionan estos modelos, que no es que sean "mejores" per sé, sino que hacen más iteraciones sobre sí mismos para dar una mejor respuesta, por ejemplo, a la pregunta... "Write me a hello world in jetpack compose"... El modelo NO responde directamente...
January 21, 2025 at 3:41 PM
Acabo de subir el salamandra-2b también.

ollama run sergiocasero/salamandra-2b

#ia #genai #llm
January 21, 2025 at 1:30 PM