¿Qué habrá cuando la IA termine la humanidad? – Desde dentro
En una villa con vistas al Golden Gate, la élite de la inteligencia artificial se reunió el domingo pasado

En una villa con vistas al Golden Gate, la élite de la inteligencia artificial se reunió el domingo pasado para discutir un tema inquietante: el fin de la humanidad y lo que vendrá más tarde. Entre las gafas (sin alcohol), sus alrededor de 100 participantes, entre los cuales había filósofos, empresarios e investigadores, presentaron un futuro en el que las personas ya no existían, sino una inteligencia creada por nosotros. ¿Cómo debería ser nuestro sucesor?
El fin del fin del mundo. El evento que conocimos Este informe por cable Fue descrito como un «sucesor digno» y tuvo como objetivo discutirlo exactamente: defina un «sucesor de la altura» si la humanidad ya no existe. Esta idea se refiere a la creación de un Inteligencia artificial general o AGIPor su acrónimo en inglés. Un concepto (por el momento) de superinteligencia que superaría a las personas en todas las facetas del conocimiento, tan bien que en las palabras de Daniel Faggella, el anfitrión del partido: «Estarían complacidos de que ellos (no la humanidad) determinen la vida futura de la vida».
Quien visitó. El primero: ¿Quién es este tipo y por qué deberíamos escucharlo? Faggella es la fundadora de Emerj Artificial Intelligence Research, una empresa asesora y análisis de IA. En 2016 escribió en TechCrunch Sobre los riesgos de la IA y actualmente se está centrando en difundir el enfoque moral y filosófico, en particular la creación de este «digno sucesor» Una idea que se cierne durante mucho tiempo. Según la cuenta En LinkedInDos años más tarde contactaron a varias personalidades relevantes en la industria para celebrar esta reunión.
En la fiesta, se escucharon tres documentos de la mano de Ginevra DavisEscritor de Nueva York, el filósofo Michael Edward Johnson y el anfitrión mismo. La lista completa de invitados no ha excedido, pero Faggella sospecha Que los fundadores de compañías de IA con valores de hasta $ 5,000 millones, personas de los laboratorios que son examinados para crear un AGI y algunos de los filósofos y pensadores más importantes de la industria.
La superinteligencia que termina con todo. En palabras de Faggella: «Los grandes laboratorios saben que AGI probablemente terminará con la humanidad, pero no hable de ello porque los incentivos no permiten esto». Suena como teoría de la conspiración, pero no es el primero en advertir algo así. Hace una década, Bill Gates nos dijo Deberíamos temer la IA. Poco después Muschus pidió regulación Para aliviar los peligros de lo que vendría. Varios expertos de IA han firmado en los últimos tiempos Un mensaje que «alertó el riesgo de eliminar para la IA». Operai también lo pensó Los riesgos del AGI. Incluso hay que sus declaraciones sobre la creación de un agi habrían sido La razón del despido sólido de Altman Meses después.
¿Qué es cierto en todo esto? No podemos saber exactamente, pero sabemos que la mayoría de los argumentos al respecto La intervención del agi Y sus riesgos se basan en opiniones y especulaciones, no en evidencia empírica o avances concretos. Por ejemplo, estudios recientes han demostrado que los sistemas actuales Todavía falla con las tareas básicas de argumentaciónLo que contradice la idea de una superinteligencia a corto plazo. También hay indicios de que La IA generativa podría estar cerca de su techo. Tampoco hay consenso entre los expertos. Hay críticos que Crees que es ridículoPero, por supuesto, es menos «viricable» que decir que la IA nos extinguirá.
Y sobre todo: no podemos ignorar el hecho de que aquellos que hacen estas declaraciones son gente de negocios Como Altmany el El negocio es muy caro Y tienes que financiar. Agite The Loop que existe en la próxima llegada de AGI podría ser una forma de recaudar más dinero para sus empresas.
A qué vamos cuando desaparecemos. El tema central de la fiesta no era tanto como se elimina la humanidad (parece que esto se considera por sentado), sino qué tipo de inteligencia deberíamos crear para hacer de nuestro sucesor. Los participantes escucharon presentaciones sobre los valores y habilidades que esta nueva inteligencia superior debería tener. Para Faggella, la humanidad es responsable de diseñar un sucesor que conozca y sea capaz de desarrollarse más.
El filósofo Michael Edward Johnson enfatizó los restos de la creación de una IA consciente que va más allá de la posible extinción: «Nos arriesgamos a algo para garantizar algo que pueda sufrir o confianza que no sea confiable», dijo durante su presentación. En lugar de obligar a la IA a cumplir, sugirió una capacitación conjunta de personas e IAS para «buscar el bien», sea lo que sea. En resumen, uno interesante Debate desde un punto de vista ético y filosóficoPero con poco ancla en realidad. Al menos por el momento.
Imagen de portada | Mellizos
En | El arma secreta de la industria de la moda en China: esta startup utiliza IA para predecir las próximas tendencias