¿Qué es la Computación Cuántica?


Este año se celebra el 50 aniversario del Intel 4004, el primer microprocesador del mundo y un logro de ingeniería que continúa evolucionando a un ritmo vertiginoso. Montando el éxito de la Ley de Moore y el escalamiento de Dennard, las computadoras de hoy eclipsan los avances de los procesadores de antaño. De hecho, el teléfono móvil o tableta que está utilizando ahora tiene más capacidades informáticas que las supercomputadoras a principios de siglo. Fusione esa potencia de procesamiento con el ascenso meteórico del aprendizaje automático y otros avances algorítmicos, y estamos a punto de entrar en lo que los ganadores del Premio Turing 2017 llaman «Una Nueva Edad de Oro de la Arquitectura Informática».»

Sin embargo, llegar a este punto no fue una tarea fácil. En las últimas décadas, las mentes más brillantes de la física, la arquitectura informática y el diseño de software necesitaban unirse para aprovechar y controlar las propiedades clásicas de los electrones para los cálculos. Juntos, construyeron un ecosistema completo alrededor de miles de millones de 0 y 1 digitales, que abarca toda la pila, desde algoritmos hasta compiladores, microprocesadores y puertas digitales.

Lo que podríamos dar por sentado cuando arrancamos nuestros PC de alta gama o revisamos continuamente nuestro teléfono es la culminación de décadas de investigación, implementación e iteración, y lo más probable es que continúe en el futuro previsible.

¿O lo hará?

Las computadoras cuánticas están comenzando a emerger en muchos laboratorios industriales y de investigación (IBM, Intel, Microsoft, Google, por nombrar algunos). Los gobiernos están invirtiendo fondos en la investigación de computación cuántica en muchos países. El número de bits cuánticos (o qubits) en estas máquinas parece aumentar cada vez que se anuncia un nuevo prototipo. ¿Es solo cuestión de tiempo hasta que tengamos estas poderosas máquinas al final de nuestras yemas de los dedos?

 

Bueno, no del todo. En la escala de tiempo de los eventos, probablemente todavía estamos en el equivalente de la era del tubo de vacío para las computadoras cuánticas. Los investigadores de sistemas llaman a esto la era» ruidosa cuántica de escala intermedia «(NISQ, pronunciado similar a» RISC «y» CISC»), donde los procesadores cuánticos están comenzando a mostrar la promesa de superioridad computacional para ciertos problemas, pero operan en un régimen muy ruidoso que es muy propenso a errores. Para alcanzar la adopción a gran escala que disfrutan las computadoras clásicas, se necesitan desarrollar e implementar muchas más innovaciones y técnicas en toda la pila, similar a la evolución de la computación clásica.

Al mismo tiempo, lo más probable es que las computadoras cuánticas no reemplacen a las máquinas clásicas, sino que trabajen junto con las computadoras clásicas para acelerar ciertas aplicaciones. Esto es análogo a cómo las GPU hoy en día se usan comúnmente para acelerar gráficos y manipulaciones de píxeles. Con ese fin, el hardware de computación cuántica se conoce comúnmente como QPU, o unidades de procesamiento cuántico, y son / serán controladas por un procesador host, como una CPU. De hecho, un algoritmo cuántico típicamente implica pre-o post-procesamiento clásico, y tendrá que ser diseñado de tal manera que funcione como un coprocesador con los sistemas clásicos.

Al igual que los científicos y los profesionales se unieron para llevarnos a nuestra Era actual de la Información, deben hacerlo de nuevo para las computadoras cuánticas. Esta vez, sin embargo, en lugar de aprovechar y domar las propiedades clásicas de los electrones, el desafío es controlar las propiedades cuánticas de nuestro universo y aprovecharlas para la computación.

Este viaje cuántico nos llevará incluso antes en el siglo 20, de vuelta a los desacuerdos intelectuales entre Albert Einstein y Niels Bohr sobre la naturaleza del mundo físico en el que todos vivimos.

Comprender el «Cuántico» de las Computadoras Cuánticas
Antes de sumergirse en cómo funcionan las computadoras cuánticas, se necesita una breve introducción sobre la naturaleza cuántica de las partículas. Las propiedades cuánticas difieren drásticamente de las propiedades clásicas, y son estas propiedades específicamente las que proporcionan a las computadoras cuánticas sus» poderosas » capacidades de cómputo. En lugar de derivar las fórmulas que gobiernan las computadoras cuánticas, tratamos de comprender una comprensión conceptual de las propiedades cuánticas aquí que ayudan a alimentar las computadoras cuánticas.

Un Recorrido Histórico
En 1927, la Conferencia Solvay tuvo lugar en Bruselas, Bélgica. Los más grandes físicos de la época se reunieron para discutir los fundamentos de la recién formada teoría cuántica. 17 de los 29 asistentes fueron o se convirtieron en ganadores del Premio Nobel. En el centro de esta histórica conferencia estaban dos mentes con puntos de vista contradictorios: Niels Bohr, el campeón de la recién formada teoría cuántica, y Albert Einstein, quien estaba decidido a desacreditar la teoría cuántica como «simplemente equivocada.”

A lo largo de la conferencia de una semana de duración, Einstein lanzaría desafíos y experimentos de pensamiento en Bohr, contenido en la búsqueda de fallas en la teoría cuántica. Todos los días, Bohr y sus colegas estudiaban cada desafío y proporcionaban una refutación a Einstein para el desayuno de la mañana siguiente. Bohr incluso usó la Teoría de la Relatividad de Einstein contra él en una ocasión. Al final de la conferencia, se pensó que Bohr había ganado el argumento, proporcionando un contraargumento a cada uno de los desafíos de Einstein.

Einstein, sin embargo, todavía no estaba convencido. A pesar de las respuestas de Bohr, Einstein ahora creía que la teoría cuántica debe faltar algo. En 1933, Einstein se estableció en Princeton, Nueva Jersey, y reclutó a Nathan Rosan y Boris Podelsky para encontrar un defecto potencial en la mecánica cuántica. Trabajando juntos, descubrieron una paradoja en las matemáticas de la física cuántica! La paradoja de Einstein-Podolsky-Rosen (o la paradoja de EPR) encontró una conexión aparentemente imposible entre partículas. Específicamente, encontraron que dos partículas a una distancia pueden mostrar un comportamiento correlacionado y coincidente en el mundo real.

Como ejemplo, imagine dos partículas cada una oculta bajo una taza separada separada por una distancia (por ejemplo, un metro). Según las matemáticas, descubrir y mirar la partícula debajo de una de las copas revelaría misteriosamente la otra partícula debajo de la segunda copa con propiedades coincidentes. Einstein llamó a esto, «acción espeluznante a distancia.»De hecho, el EPR paradox paper fue el trabajo más referenciado por Einstein, y muchos físicos y experimentadores trataron de abordar y explicar la paradoja en años posteriores. ¿Hubo algún experimento que pudiera probar si Einstein o Bohr tenían razón?

A pesar de esta (aunque grande) arruga en las hermosas ecuaciones de la mecánica cuántica, la teoría cuántica todavía despegó. El proyecto Manhattan en la década de 1940, el descubrimiento de láseres e incluso el desarrollo de transistores (los bloques de construcción de las computadoras clásicas) se han construido sobre la «especulación» de que la teoría cuántica es correcta. No fue hasta la década de 1960 que la cuestión del entrelazamiento cuántico fue realmente respondida.

Entrelazamiento Cuántico
Mientras que los descubrimientos científicos basados en la mecánica cuántica continuaron emergiendo, los desafíos teóricos planteados por la paradoja de EPR desconcertaron a muchos físicos durante décadas. Notoriamente, que pensar en cuántica hizo que la gente fuera expulsada de los departamentos de física! John Bell, sin embargo, un físico de Irlanda del Norte, estaba lo suficientemente perplejo sobre la paradoja de EPR, que decidió jugar con ella en su tiempo libre mientras trabajaba como físico de partículas en el CERN en Ginebra como su «trabajo diario».”

+ There are no comments

Add yours