Aunque el creador de Chat GPT, Sam Altman, descartó una rebelión, de todos modos tiene un plan B en caso de que ocurriese.
Noticias mundo.
Ante los temores crecientes de que exista una rebelión de la IA en contra de la humanidad, el presidente ejecutivo de la empresa Open IA y creador de Chat GPT, Sam Altman confesó que tiene un plan B si esto llegase a ocurrir, aunque descartó la idea.
Dentro de una maleta lleva la llave que puede apagar todos los servidores que albergan en su IA, en caso de apocalipsis. Y según los medios, es una computadora Mac.
Se trata de una maleta azul con la que el empresario e inversor de tecnología estadounidense lleva a todos lados.
Los medios consideraron esta maleta el equivalente al maletín nuclear del presidente de turno de Estados Unidos.
«Me preocupo, por supuesto», creador de Chat GPT sobre la IA
A pesar de que no considera rebelión alguna, el creador le dijo al medio estadounidense Business Insider, que no puede escapar de esta idea y considera que está preparado para ella.
«Me preocupo, por supuesto. Quiero decir, me preocupo mucho por eso», afirmó.
Y el contenido que lleva en su maleta azul es la prueba de ese miedo.
Por ejemplo, en 2016, le dijo a The New Yorker que para un supuesto fin del mundo había guardado «armas, oro, yoduro de potasio, antibióticos, baterías, agua, máscaras de gas de las Fuerzas de Defensa de Israel y un gran terreno en el sur».
Por otro lado, un grupo de científicos y líderes de la industria de la inteligencia artificial (IA) firmaron en mayo una declaración conjunta preocupante:
«Mitigar el riesgo de extinción de la IA debería ser una prioridad mundial, junto con otros riesgos a escala social como las pandemias y la guerra nuclear».
Justamente Sam Altman fue uno de los principales referentes que firmaron esta declaración junto a personalidades como Demis Hassabis, director ejecutivo de Google DeepMind, Dario Amodei, de Anthropic, entre otros.
Este tipo de planteo responde a lo que en el campo se denomina «riesgo existencial» de la inteligencia artificial.
«La idea de riesgo existencial tiene que ver con un concepto mal fundado, que implica que una inteligencia superior a la humana podría tomar decisión de extinguir a la humanidad», explicó a Clarín Javier Blanco, Doctor en Informática por la Universidad de Eindhoven, Holanda.
«Un poco va en la línea de la película Terminator y el programa Skynet, que toma conciencia de sí y decide volverse contra los humanos», añadió.