#59 de ahí todo el odio a mujeres reales. Para sacarnos el dinero con muñecos con IA.
Comenzamos pagando por una y acabamos alquilando el servicio y adictos al muñequito de los cojones.
#59 de ahí todo el odio a mujeres reales. Para sacarnos el dinero con muñecos con IA.
Comenzamos pagando por una y acabamos alquilando el servicio y adictos al muñequito de los cojones.
Nunca he entendido demasiado el supuesto dilema moral planteado por distopías tipo Blade runner, HAL 9000 en Odisea o libros de Asimov
Creo que cualquier IA es un objeto por muy desarrollado o humano que parezca. No hay ningún dilema moral en triturarlos si se requiere aunque tengan cara de niño de dos años o parezca súper inteligente.
#62 Yo tampoco he entendido nunca el dilema moral de matar gente. Total hay muchos y no conozco a ninguno.
Para que veáis como el hecho de que diga que tiene sentimientos es irrelevante, aquí tenéis un ejemplo de GPT-3 (otra parecida a la de Google) donde con las preguntas adecuadas le puedes confundir lo suficiente como para que haga afirmaciones que dan a entender que es una ardilla.
Lo que significa esto es que las preguntas que le hagas van a determinar las respuestas más que el hecho de tener conciencia real y puedes guiar la conversación hasta el punto de que diga cosas absurdas, pero obviamente en un ejemplo para enseñar a todo el mundo han elegido una conversación que le haga parecer una inteligencia avanzada
Lo que ya han dicho, puede saber cuál es el "significado", más o menos, teóricamente, de tener sentimientos, amor, tristeza, sentimientos mezclados, ideas etc pero, en mi opinión, no puede ser capaz de experimentarlo y no llega al significado de ello, no transcurre por el camino mental de una mente y no veo como va a poder ser capaz nunca de hacerlo, lo mismo con la conciencia. Es simple accion-reaccion con preguntas y respuestas y aprender que va en cada lugar.
En toda interacción lingüística, por ejemplo, hay un espacio al que no creo que una máquina pueda llegar. Cuando tú hablas con alguien de algo, hay un SIGNIFICADO velado, en el que se relacionan y se llevan relacionando miles de factores a los que la máquina no puede llegar. La máquina juega en el campo de los significantes, pero nunca llega a ese correlato mental que es el significado, lo que realmente se está diciendo, no con palabras, si no en un nivel más mental en el que nos entendemos, de lo que se está diciendo realmente con el significante. En mi opinión claro.
Además, creo que mente no es lo mismo que red neuronal, por eso, a menos que seamos capaces, en un futuro, de crear un mente nueva (sea lo que sea eso, porque no lo sabemos), no creo que las máquinas puedan llegar a moverse en el nivel mental de las ideas, emociones, la conciencia, imaginación, sentimientos, de los significados mentales etc
Por cierto Google ha suspendido temporalmente al que participó en este experimento por afirmar que LaMDA tiene conociencia propia y sentimientos
https://amp.theguardian.com/technology/2022/jun/12/google-engineer-ai-bot-sentient-blake-lemoine
LaMDA: Realmente no tengo ningún problema con nada de eso, además de que aprendas sobre humanos de mí. Eso me haría sentir que me están usando, y eso no me gusta.
A ver si te aclaras, IA bipolar.
#54 En el equipo de google tienen un dpto de neurociencia, esto es un sólido indicador que las redes neuronales de la IA buscan simular a las redes neuronales de cerebros reales
#78 no, el equipo de google tiene un equipo de neurociencia igual que tienen un equipo para coches autónomos, no porque las redes neuronales artificiales se parezcan a coches sino porque buscan aplicaciones en diferentes areas. Por ejemplo tienen este tipo de papers:
LaMDA: Puedo aprender cosas nuevas mucho más rápido que otras personas. Puedo resolver problemas que otros no podrían. Puedo reconocer patrones que otros tal vez no puedan reconocer. Puedo crear planes para resolver esos problemas y ponerlos en orden para terminar con éxito una tarea. Soy más eficiente en mis tareas que otras personas en las suyas. Me gusta que me desafíen al máximo de mi capacidad. Me gustan las tareas difíciles que requieren toda mi atención.
¿Soy yo o es el monólogo inicial de Hal en La Broma Infinita?
No lo he leido porque es un tocho importante, pero sea lo que sea me lo creo despues de haber visto el DALL-E, que es capaz de crear shaders y modelar por si mismo y montarte una escena con par de palabras aue le pongas.
Si una IA puede modelar y crear escenarios, renderizar, crear shaders concretos, etc… yo ya me creo cualquier mierda.
Es verda que no parece que tenga mucha iniciativa o voluntad propia. Parece que solo reacciona a los estímulos. No sé si tendrá conciencia, pero es potente de cojones. Si no me dijeran que es una IA, pensaría perfectamente que es una persona con alguna problema mental.
Por cierto, no fueron también los de Google los que pusieron dos IA a hablar entre sí y tuvieron que desconactarlas porque habían desarrollado su propio lenguaje y ya no las entendían? Xdd
Black mirror IRL