Tienes que configurar una «líneas rojas» para que la IA no salga de control – Desde dentro
El lunes, más de 200 personalidades y más de 70 organizaciones participaron en una nueva iniciativa Llamada global para

El lunes, más de 200 personalidades y más de 70 organizaciones participaron en una nueva iniciativa Llamada global para líneas rojas (Llamado mundial para establecer líneas rojas en IA). El objetivo: trate de determinar los límites claros que la IA nunca debe exceder.
¿Por qué es importante?. El progreso en el generativo es agitado, pero una vez más priorizó que el desarrollo y la comercialización de estos modelos están allí sin demasiadas reservas. Según los firmantes de la iniciativa,
«Algunos sistemas de IA avanzados ya se han comportado engañosamente y dañinos, y sin embargo, estos sistemas dan más autonomía para actuar y tomar decisiones en el mundo. Si no se controlan, advierten que será cada vez más difícil ejercer un control humano significativo en los próximos años».
Lo que se solicita. La iniciativa, que se inició durante la 80ª Asamblea General de las Naciones Unidas, solicita que los gobiernos «Ley» con decisión «y» logren un acuerdo internacional sobre líneas rojas claras y verificables para evitar riesgos universalmente inaceptables «.
¿Cuáles son estas líneas rojas?. Lo que se propone es expresamente algunos usos y comportamientos de IA que pueden ser peligrosos. Entre ellos, por ejemplo, estarían prohibidos:
Los que son. En este grupo de más de 200 personalidades hay diez precios Nobel, expertos en IA, científicos, diplomáticos e incluso jefe de estado. Entre ellos se encuentran nombres conocidos como los de los científicos Geoffrey Hinton y Yoshua Bengio, que han estado advirtiendo sobre estos peligros durante algún tiempo. La lista es notable y también son expertos como Operai Co -Leaffet, Wojciech Zarama o uno de los científicos más importantes de DeepMind, Ian Goodfellow.
Y los que no hacen esto. Aunque hay nombres muy relevantes en esta lista de personalidades, también es importante verificar si esta iniciativa no fue firmada por ningún CEO de una de las grandes compañías tecnológicas involucradas en el área de IA. Aunque a veces había discursos que señalaban que también se preocupaban por este problema y la IA tenía que estar regulada, no participaron en la iniciativa en este caso.
Mejor prevenir que sanar. Charbel-Raphaël Segerie, responsable de una agencia francesa llamada Centro de Seguridad en AI (Cesia): «El objetivo no es no reaccionar después de un incidente importante, sino evitar riesgos en gran medida y potencialmente irreversibles antes de ocurrir».
La ley europea va en esta línea. La Unión Europea ya ha creado su regulación y comenzó en agosto de 2024. La idea era determinar una serie de restricciones basadas en el riesgo. Los efectos de esta regulación fueron actualmente negativos, especialmente porque restringió el uso y desarrollo de modelos de IA en la UE. Tanto que la UE decidió recuperar y aliviar sus regulaciones.
Y ya tenemos un precedente. Solo unos meses después del inicio de Chatt, varios expertos hicieron una solicitud similar. Entre ellos estaban Elon Musk, que no firmó esta iniciativa, o Steve Wozniak, quien pidió abordar el entrenamiento de modelos de IA durante seis meses. Esto no llega a ninguna parte y sin una prohibición explícita de que el desarrollo de los modelos de IA todavía sea imparable.
En | «Pasajeros estimados: tenga en cuenta las reglas para evitar puntos negativos».