Fernando Conde
fconde.bsky.social
Fernando Conde
@fconde.bsky.social
Techie, ingeniero, ex-Game Industry, padre de tres peques increíbles y orgulloso marido de @naochan91.bsky.social. Patológicamente curioso, gruñón, hiperactivo y abogado del diablo. Proudly SNGULAR, trabajando en que la IA nos cambie para bien la vida.
De todos modos, hablo de todo esto con mucha menos prisa y más detalle en este post que me he animado a escribir aprovechando el hype que se ha creado: t.co/l9JgN6f18l
https://www.linkedin.com/pulse/llega-el-nuevo-procesador-cu%25C3%25A1ntico-de-google-pero-qu%25C3%25A9-fernando-conde-xoy8f/
t.co
December 15, 2024 at 4:52 PM
¿Entonces la computación cuántica sigue sin ser práctica? simplificando: sí, pero cada vez estamos más cerca, y no dejamos de aprender un montón de conocimientos útiles que estamos aprovechando para evolucionar en campos adyacentes como algorítmica o machine learning.
December 15, 2024 at 4:52 PM
Otra de las ventajas de Willow es que se fabrica con tecnologías de semiconductores que están bien desarrolladas, aunque seguimos necesitando hacerlo operar a temperaturas de miligrados por encima del cero absoluto.
December 15, 2024 at 4:52 PM
...cada una de ellas con su tiempo de procesamiento, al que se une el tiempo de la "sobrecarga de corrección de errores". Para empezar a resolver problemas básicos, tenemos que incrementar ese tiempo en un orden de magnitud, y en 5 para atacar un Shor.
December 15, 2024 at 4:52 PM
¿Y lo de la decoherencia? Pues es el tiempo que tenemos para realizar las operaciones antes de que el estado cuántico se degrade y la operación se "volatilice". Los 100 µs de Willow son insuficientes para algoritmos cuánticos complejos que requieren miles o millones de puertas...
December 15, 2024 at 4:52 PM
Esto permite que los qubits lógicos mantengan la coherencia durante más tiempo y con mayor fiabilidad, vital para desarrolladorar computadoras cuánticas prácticas y escalables.
December 15, 2024 at 4:52 PM
Lo de la corrección de errores sí es importante, porque uno de los problemas de la computación cuántica es que los qubits son sensibles a perturbaciones, lo que provoca el "desmoronamiento" de las operaciones. Willow muestra un sistema que se vuelve más robusto al crecer hasta un límite.
December 15, 2024 at 4:52 PM
¿Y ese problema que ha resuelto en 5 segundos pero hubiese llevado trillones de años a un ordenador clásico? Pues es una prueba de concepto, una métrica útil para ingenieros y departamentos de marketing, pero sin impacto real en la utilidad práctica de esos sistemas.
December 15, 2024 at 4:52 PM
Y ojo, porque el número que nos importa para las operaciones es el de "qubits lógicos". Hacen falta varios qubits físicos para hacer un qubit lógico, por la forma en la que se usan varios qubit físicos para la corrección de errores.
December 15, 2024 at 4:52 PM
El número de qubits nos da el "nivel complejidad" del problema que podemos resolver. Aún estamos lejos de resolver problemas sencillos de simulación química (~1.000 qbits) o de aprendizaje automático (~10.000 qubits). Y reventar el RSA-2048 necesitaría unos 20 millones.
December 15, 2024 at 4:52 PM
Las principales novedades de este procesador, en mi opinión, son tres:

- Gran aumento del número de qubits físicos (hasta 105).
- Mejora significativa en los tiempos de coherencia.
- Un hito de gran relevancia en la corrección de errores.

¿Y bien? ¿Qué implica esto?
December 15, 2024 at 4:52 PM