Curioso es que para hacer corrección de errores por cada qbit necesitas como (por ejemplo) 5 qbits de respaldo por si falla (interactua) uno y pierde informacion los otros 4 respalden.
Y no se podrían usar qbits para la resolución y bits para memorizar la información?
#63 los qbits se usan para computar, ese es el objetivo. En vez de restringirte a operaciones de 1 y 0, tienes el continuo entre 1 y 0.
En esto radica el poder de factorización brutal. Como decía mi profesor: dotar a la gente de computadores cuánticos ahora sería como darles una bomba atómica, pues todos nuestros cifrados se fundamentan en factorización. Es necesario un sistema de cifrado cuántico (lo que hacía el otro profesor que menté) desarrollado y funcional, la transición a este tipo de cifrados, antes de liberar la potencia de este tipo de ordenadores.
Y sí, la información se guardaría de la manera usual.
#64 Solo demuestra que la luz a veces se comporta como onda, el patrón de interferencias de la pared es un comportamiento clásico.
¿Cómo sabes tú que la onda ha colpasado y no se han prodicido infinitos universos con todas las posibilidades que tenía?
La dualidad onda partícula también es una interpretación, y esta no es correcta porque hay muchos fenómenos cuántos a la que no le da respuesta.
Repito, se tiene fórmulas matemáticas y les damos un sentido físico.
#68 Buscando información que ponerte me he dado cuenta que has mirado en la wikipedia el experimento de Young y te has quedado en el primer párrafo.
No son solo fórmulas matemáticas.
#2 Debo ser retarded, claro que no soy informático ni matemático, ni físico xD
Pero no veo diferencia entre 0 y 1, y 0 y 1...
Me informaré un poco del tema jaja
#70 Es errado lo que dice #2 .
En computación convencional tienes dos estados asociados a si hay impulso eléctrico o no: 1 y 0.
En computación cuántica tienes libertad de estados entre 0 y 1, como un continuo. No son 3 estados.
Por simplicidad utilizamos dos autoestados, 0 y 1 (por ejemplo: spin up - spin down; o polarización V - polarización H; etc.). Ocurre que por esa parte cuántica del chisme se trabaja con la probabilidad de que una vez realizada la medida el resultado sea 0 o 1. Y claro, las densidades de probabilidad asociadas a estos autoestados son ese continuo del que hablo.
#72 he hecho uso de mis dotes con mspaint.
En informática convencional tienes los estados de 1 y 0 (electricidad o no electricidad). Haces operaciones matemáticas binarias, para ello usas puertas lógicas, que mucho tienen que ver con el álgebra de boole.
En computación cuántica tienes unos autoestados (es decir, lo que entiendes usualmente por estados, algo tangible, palpable, que tú ves). Usualmente se utilizan dos autoestados, aunque no es necesario. Estos autoestados pueden ser magnitudes físicas medibles como la polarización (vertical u horizontal), o el espín de un electrón (arriba o abajo), etc
Utilizando puertas lógicas cuánticas, muchas de las cuales son análogas a las puertas lógicas convencionales, haces operaciones.
Estas operaciones te llevan a un estado cuántico, es decir, un estado en el que tienes unas probabilidades de que una vez que midas el resultado sea uno u otro autoestado:
También puedes iterar con estos estados, llevándolos a otros:
Para terminar haces la medida, que te da el resultado (uno u otro autoestado):
Y ya está, si es que no es tan complicado xD
#73 Muchísimas gracias!. Donde me pierdo es la hora de hacer la medida. Proque si hay un %X o %Y en el resultado ¿como lo interpretas?
#74 cuántica. Con lo que juegas en con las densidades de probabilidad. Cuando haces la medida, la función de onda colapsa en un autoestado en concreto.
#75 Vale, entonces lo había entendido.
Entonces si por ejemplo hicieses una suma (u operacion) sencilla, saldría 100% de probabilidad de acertarla o tiene un % de fallo?
Joder vas a pensar que soy un anormal pero de verdad que me estoy esforzando.
Te vuelvo a dar las gracias por la paciencia y por habernos explicado cositas
La clave del asunto que los dibujitos de #59 quieren transmitir es que hasta que se miden tu qbit, o conjunto de qbits, no esta en ningún sistema en concreto, sino en una superposición determinada de todos esos estados posibles. Cuando tu vas y mides tu sistema vas a obtener a veces uno de esos estados y a veces otros.
El numero de estados posibles a la hora de medir y las probabilidades de que midas uno u otro depende del tipo de sistema y del observable que estas midiendo.
Los "algoritmos cuánticos" se aprovechan de esta superposición de estados para hacer cálculos y algunos de esos algoritmos permiten resolver problemas que tienen aplicaciones prácticas. No quiere decir que exista (necesariamente) una correspondencia 1-1 entre algoritmos cuánticos y clásicos ni que la versión cuántica de resolver un problema sea siempre más eficiente.
De los algoritmos en sí no tengo ni idea de como van pero siendo cuántica un estudio probabilisitico de los resultados esta ahí seguro. Esto no va a ser un "meto input, obtengo output, esa es la solución" sino un "meto input X millones de veces, obtengo la distribución de outputs, de esa distribución infiero mi solución". Cuanta confianza tengas en tu resultado dependerá de tu error estadístico (Que puedes siempre reducir aumentando el número de veces que repites el cálculo) y del resto de fuentes de error que tengas en tu experimento.
Si alguien está seguro que me corrija, pero más que probablemente cuando se habla de "este algoritmo es mejor que el clásico" probablemente se este hablando de que el tiempo que te cuesta estar seguro estadísticamente hablando de que una solución determinada es correcta y no una fluctuación estadística es menor que el tiempo que le costaría a un algoritmo clásico equivalente el encontrar la solución (Que puesto que es clásica es solo "la" solución).
#79 pero eso no es como las redes neuronales?
Predecir en funcion de ensayos previos a base de ensayo-error, no tengo mucha idea del tema en PCs xD
#79mTh:meto input X millones de veces, obtengo la distribución de outputs, de esa distribución infiero mi solución
Esto, justo, es la clave. He estado conversando en la comida con un compañero de curro más puesto que yo, y me ha hecho inciso en esto y en que, lo más potente, es la factorización. Es decir, tú tienes un número compuesto, y mediante estos cálculos estás "paralelizando" todas las combinaciones posibles que resultan en ese número. Recalcó el paralelizando entre comillas.
También me dijo que usualmente son resultados fácilmente comprobables (es muchísimo más fácil comprobar que el resultado de multiplicar dos números es el que tú quieres, frente a encontrar qué dos números multiplicados dan el resultado que tú quieres). Así que una vez que tienes tú distribución de soluciones puedes comprobarlas sin gasto apenas.
Creéis que en un futuro no muy lejano con ayuda de esto se podrá realizar una aproximación decente o algo alta de la computación de las redes neuronales del cerebro humano y tratar de evolucionar los algoritmos de aprendizaje de las IA's para asemejarlas a un comportamiento más nuestro?
Estuve hace relativamente poco viendo algo de la programación cuántica y los usos que se le podrían dar, con la salida del lenguaje de Q# creo que era, y algo me pareció leer sobre el tema de las redes neuronales y el tema de las IA's.
La verdad que tanto para temas de astrofisica creo que vendría bien como para poder ayudar a comprender cosas de las formaciones del universo y todo ese mundo desconocido. Me llama bastante la atención toda la mierda esta y me la pone demasiado dura todo esto xD
#79 #81
Vale ahora sí he terminado de comprender, me costaba mucho ver la resolución de los input pero ahora lo comprendo al 100%
Muchisimas gracias
#83 Yo leí que se podría llegar a simular casi cada célula del cuerpo humano (de aqui a 15 años) si se consiguiese lo que se pretende.
Podrían hacer 210000 Calculos (no se en que unidad de tiempo)
#84 ¿2 elevado a 10 mil cálculos?! ¿Pero tú sabes cuánto es eso? Es mayor que el número de jugadas posibles en el ajedrez, mayor que el número de posibles universos en la hipótesis de los universos paralelos, e incluso mayor que un Gúgol; es decir, 100 veces mayor que esto:
10 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000.
Si esa cifra es correcta supongo que podremos destruir Matrix pulsando un botón o_O
#17 eso no funciona como crees, no se puede transmitir informacion asi, solo funciona de la manera en que cuando miras un lado sabes lo que hay en el otro.
Con un ordenador cuántico ya se abre la puerta a una I.A o aún hay que seguir esperando? Espero que por lo menos sea tan potente y ecónomico que deje a la mejor de las bestias caseras en pañales.
#80 no xq en una red neuronal has tenio que enseñarlo antes digamos que tu metes
2+1=3
2+2=4
2+3=5
....
Le metes muchos datos y enseñas a la red(haces la fase de pruebas y ese rollo) y ahora tu le metes un dato del que no concoes a la respuesta por ejemplo
2+100= y te deberia dar algo cercano a 102
Con un algoritmo normal 2+2=4 te va a dar directamente
ahora con uno cuantico te daria algo asi parece
Yo lo unico que di de computacion cuantica fue la esfera de bloch xD
No se supone que no hay almacenamiento cuántico? El IO es es binario pero las operaciones son probabilisticas, pudiendo resolver problemas iterativos de una pasada.
Tengo entendido que para la informática imperativa sigue siendo mejor un ordenador binario.
Mi apuesta es que si vemos algo cuántico en ordenador lo primero van a ser tarjetas gráficas.