Piden pausar 6 meses desarrollo de IAs (nivel GPT-4 o superior

benitoll

Expertos y personalidades como Elon Musk piden pausar el desarrollo en IAs de "nivel GPT-4 o superior" "para evitar riesgos en la sociedad"

En la carta abierta, titulada "Pause Giant AI Experiments: An Open Letter" y publicada este martes 28, expertos y personalidades como Elon Musk, Steve Wozniak, Andrew Yang (político), Jaan Tallinn (Skype), Evan Sharp (Pinterest), Chris Larsen (Ripple) o Carles Sierra (director de investigación IA del CSIC español), entre muchísimas más, en resumen piden lo siguiente:

  • Pausar durante 6 meses el desarrollo de modelos de lenguaje grandes (LLMs por sus siglas en inglés) que sean igual o más potentes que GPT-4.
  • NO piden pausar todo el desarrollo en LLMs (hasta el "nivel" de GPT-4) ni en otros tipos de inteligencias artificiales (en absoluto).
Mi opinión

IMPORTANTE: sé que ya hay otro hilo general, pero independientemente de la repercusión que acabe teniendo esta noticia, creo que es (o puede ser) lo suficientemente importante como para que tenga su propio hilo, me parece un tema extremadamente serio y existencial en el que se debería maximizar la difusión y discusión al respecto, explícitamente sobre las cuestiones de las que habla la carta abierta.

4
allmy

Todos los que han empezado esta campaña son multimillonarios que no han llegado a tiempo al negocio. Elon Musk vendió sus acciones de Open AI pensando que no iban a llegar a donde han llegado. Ahora quiere una pausa de 6 meses para montarse su chiringuito. Y tened claro que China no va a parar. En la IA como en cualquier otra tecnología, o llegas primero, o te haces el mejor, y todavía nadie sabe como ser el mejor.

173 4 respuestas
Hipnos

Si he aprendido alguna cosa en la vida es que si los multimillonarios lloran por algo, ese algo es bueno para mí.

121 5 respuestas
CaLaTa

Es el mercado amigo.

1
benitoll

#2 #3 estoy abiertamente en contra de lo que piden en la carta abierta, pero hay multimillonarios en ambos lados.

1 1 respuesta
allmy

#5 Claro que los hay en los 2 lados, los hay intelectualmente honestos, y los hay intelectualmente deshonestos.

2 respuestas
benitoll
#6allmy:

los hay intelectualmente honestos, y los hay intelectualmente deshonestos

Más intelectualmente honestos que Elon no sé si habrá alguno, por muchos lloros que cause e incluso si en este caso concreto juega un factor el que se haya quedado atrás.

#2allmy:

Elon Musk vendió sus acciones de Open AI pensando que no iban a llegar a donde han llegado

Elon Musk nunca tuvo ninguna acción de OpenAI: hizo donaciones para crear y mantener una ONG. Es comprensible que le joda y que no pueda ser 100% objetivo al respecto, pero ni ha exigido nada ni la ley le da la razón para exigir nada. En ese sentido "es el mercado amigo" y es lo que hay. Los argumentos de sus críticas son válidos en cuanto a riesgos y la ética de que no le reconozcan una porción del pastel, pero no están obligados (de nuevo es lo que hay), y desde OpenAI también tienen argumentos válidos en cuanto a que siguen con sus principios fundacionales: simplemente hicieron lo que tuvieron que hacer para poder tener los recursos que necesitaban; y ahora están actuando con rapidez, decisión, urgencia y celo porque estando abierta la caja de Pandora, si no lo hacen pueden comerle la tostada otros competidores.

2 respuestas
Leoshito

Musk y compañía necesitan que sus currelas estén seis meses ahí buscando formas de hacerles más ricos.

Tiene huevos que unos putos ricos puedan decidir parar el mundo porque no han conseguido ganar suficiente.

1 respuesta
Nerviosillo

Estaría bien parar absolutamente todo el desarrollo de la IA a nivel mundial hasta que estuvieran legisladas todas las implicaciones legales y éticas de las mismas (primer ejemplo que se me viene a la cabeza, falsificaciones como los deepfakes o la imitación de voces, que podrían usarse como pruebas en juzgados y se podría liar la de dios).

Pero lo que pide es absurdo. Es hacer perder el beneficio que han sacado por su ideas y desarrollo a las empresas punteras para ponerse al mismo nivel.

Y hablo en caso hipotético. Nadie va a parar los desarrollos de IA porque es el mercado amigos, y menos aún con China ahí xD

6 2 respuestas
allmy

#7 Elon (que me cae bien xD) se tiene la imagen pública bien trabajada. Y es un tipo inteligente, pero en el fondo, siempre hace las cosas con un interés económico concreto. No es un benefactor de la humanidad ni nada por el estilo como quiere hacer pensar a menudo.

La empresa de tejas solares no la montón por luchar contra el cambio climático, la montó porque la descarbonización iba a venir pronto.
Compró Tesla como apuesta por llevar la disrupción al coche eléctrico del que ya se empezaba a hablar en serio.
etc.

Tiene una buena visión para ver el futuro próximo y hacer dinero con ello, pero en OpenAI simplemente se equivocó. Invirtió porque parecía que iba a explotar, y como no explotó en el tiempo que pensaba, salió del asunto. Y ahora resulta que ha explotado como lo ha hecho. No regaló nada. Dice que lo donó porque entró en el accionariado de una empresa sin ánimo de lucro, lo cual técnicamente equivale a una donación, pero también a una inversión si luego se convierte en una empresa con ánimo de lucro. Claro que cuando eso ocurrió ya es demasiado tarde.

No hay ningún gran riesgo, solamente se le ha pasado el momento, eso es todo.

1 respuesta
Dusktilldawn

Si no sois capaces de ver los riesgos del desarrollo sin control de las IAs es que sois tan ciegos como estupidos, sin animo de ofender a nadie.

16 2 respuestas
allmy

#11 Cuáles son esos riesgos? Una IA no tiene motivos ni intención, es una maquina estadística, y está quedando muy claro con chatGPT y todas las IAs de imágenes. Nunca podrá igualar a un humano en la percepción que un humano tiene del mundo, porque simplemente no tiene características humanas ni intención alguna. Puedes multiplicar x1000000 la cantidad de parámetros, y seguirá siendo lo que es.

2 7 respuestas
benitoll

Yo lo que tengo claro es que con mi postura voy a recibir por todos los lados ideológicos (tanto golpes como apoyos). Se acaba de crear una nueva división que aglutina gente que hasta ahora estaba en grupos diferentes xD

Ah, y los takes de MV no decepcionan xD

#10 #12 a ver riesgos hay, esto lo van a usar y/o querer controlar criminales, terroristas, políticos corruptos, gobiernos, corporaciones, burócratas, etc. Riesgos sí que hay bastantes, desde usos deliberadamente nefarios como consecuencias imprevistas de buenas intenciones.

El problema es que la "pausa" que piden no sirve de nada y es contraproducente, no que no haya riesgos.

:ninjaedit: Espero que cuando pasen las cosas malas que VAN a pasar, la gente diga "suerte que no hicimos caso, habría sido peor" en vez de "ojalá hubiéramos hecho caso" (porque habría pasado igual o peor). Y sobre todo, espero que no tengamos que decir "¿por qué hicimos caso?".

1
Nerviosillo

#12 Los deepfakes y falsificaciones de audio (sobretodo las de audio) van a ser un peligro en poco tiempo.
Más aún cuando se consiga disimular a nivel de metadatos y de construcción del propio audio (a golpe de añadir ruidos, simular micrófonos y sonido ambiental).

Imagínate un audio falsificado de forma casi perfecta donde se escuche que Feijoo está pagándose la campaña a golpe de farinha, o un Pedro Sánchez diciendo que Marruecos sabe que el 11M fue cosa del PSOE.
La que puedes liar antes de unas elecciones.

Al igual que a la larga le quita la veracidad a la realidad, porque no sabrías que es o no real a no ser que lo veas por tus propios ojos. Es mucho más complicado del "me quitan los empleos" o *k se biene skynet".

5 2 respuestas
Riip

No sé si cualquier día empezarán a llover misiles por culpa del chatgtp o no, pero lo que está claro es que, con la curva de desarrollo que lleva, en menos de un año va a destruir una cantidad de empleos que ni la crisis del 2008

1
allmy
#14Nerviosillo:

Los deepfakes y falsificaciones de audio (sobretodo las de audio) van a ser un peligro en poco tiempo.

Ya son un peligro. Deepfake de audio puedo hacerlo yo mismo en mi PC ahora. El código está en github. Se puede hacer una buena imitación con 10 segundos de audio de muestra...

Lo que pones como ejemplo ya se me ha ocurrido, no te lo voy a negar xDD

1 1 respuesta
Nerviosillo

#16 Seguramente se pueda determinar que es una falsificación si le dejas el audio a la policía científica.

Dale un año, y tienes que ya no sabes discernir realidad de falsificación, y eso es muy grave tal y como está montado nuestro sistema judicial.

Imagínate que tu novia te monta un audio donde le gritas, le amenazas y se escuchan golpes, y te denuncia con un moratón que se hace en la cara.
No te libras ni de puta coña, vamos.

1 1 respuesta
benitoll

#14 imagínate hackeos masivos automatizados.

  • Encontrando y acumulando X número de vulnerabilidades en todo tipo de dispositivos diferentes como los mayores expertos en pentesting.
  • Diseñando ataques masivos y coordinados como los mejores matemáticos, científicos y gestores/planificadores, utilizando las vulnerabilidades acumulades y las mejores técnicas.
  • Diseñando los ataques para obtener el mayor beneficio económico posible (criminales), o tener el mayor control posible (gobiernos/corporaciones), o hacer el mayor daño posible (terroristas).
  • Todo con capacidad de respuesta y adaptación frente a detecciones, protecciones, mitigaciones y soluciones.

Precisamente por eso NO se debe hacer ninguna "pausa", sino empezar a invertir lo máximo posible en tiempo, esfuerzo y dinero para protegerse frente a los malos usos y seguir trabajando en buenos usos.

2 respuestas
Pitufooscuro

Paradlo para que china pueda hacer que todas sus empresas desarrollen las suyas ... xD.

13 1 respuesta
Hipnos

#19 La gente se olvida de India. India exporta ya más dinero en software que petróleo Arabia Saudí.

5 2 respuestas
Nerviosillo

#18 Es que es una revolución para la que no estamos nada preparados.

Lo peor? Que el miedo a la IA le va a dar más poder al gobierno a la larga, para que nos proteja, cosa que tampoco me gusta una mierda xDDD

#20 Cuanto porcentaje de ese dinero viene de los vídeotutoriales de YouTube? xDDDD

Freak1337

Como ya han dicho grandes eminencias, es mas peligroso una IA tonta que una inteligente.

Kabraxis

Muchos catastrofistas me recuerdan a los discursos de nuestros abuelos cuando Internet se abrió al público, que iban a quitar mucho trabajo, que iba a ser un descontrol, que el demonio se comería tus bebes... y aquí seguimos.

Las IAs solo son el siguiente avance lógico, ahora lo vemos como nuestros abuelos veían internet y que los carteros se quedarían sin cartas que enviar o cuando los abuelos de nuestros abuelos descubrieron el tractor y eso iba a acabar con todo el sector del campo...

Y aquí seguimos.

1 2 respuestas
Dusktilldawn

#12 De verdad necesitas ejemplos de los posibles riesgos? Madre mia.

Nerviosillo

#18 Yo he hablado de lo hipotético, no de lo real.

Lo real es lo que tú dices en tu último párrafo, pero al final del día le das un poder inmenso a las empresas de IA o a los estados que decidan meterles mano/legislarlas.

No me gusta una mierda pero es a lo que vamos.
Full cyberpunk, pero sin implantes protésicos guapos. Lo cual es una mierda xDDD

Craso

Ojalá prohíban todas las putas IAs.

2 1 respuesta
Riip

#23 El problema es que antaño al cartero no se le daba ninguna importancia, en cambio ahora el marketing digital, la programación y el análisis de los datos son la nueva meca a nivel laboral en cuanto a digitalización, trabajos que esta herramienta no tardará en realizar

1 respuesta
allmy

#26 Es tan tarde para eso... Llama, el modelo de Facebook, se puede correr en una RTX 4090.

1 respuesta
benitoll

#23 yo tendría cuidado con ese discurso, se puede ser optimista y anticatastrofista reconociendo los riesgos. Creo que negar los riesgos y hacer esas comparaciones (aunque haya una posibilidad de que acaben siendo ciertas, ¡y ojalá!) es un grave error. A la mínima que consideres que hay un 1% de posibilidad de que los riesgos sean de verdad tan grandes, debería ser claro que hay que trabajar en mitigarlos. Y creo que está claro que hay riesgos y son graves.

Yo no me considero catastrofista porque "la suerte está echada" y la tecnología se puede usar para proteger igual que para atacar. Pero asegurémonos de que sea así, y de que nadie pare ni ralentice el trabajo.

#28 se puede correr en un smartphone... yo he estado ejecutando Alpaca por CPU en mi portátil (uno bastante potente y con GPU potente, pero vamos, que hay gente que lo ha ejecutado en móviles).

1 1 respuesta
B

A mi me da que esto tiene mas que ver con un choque de intereses de un sector del mundo empresarial que otra cosa.

Por otro lado, suerte para convencer a occidente de que pause el desarrollo de todo esto durante 6 meses para darle ventaja a China XD.

2