IA supone un riesgo de “extinción” para la humanidad, señalan expertos
El Centro para la Seguridad de la Inteligencia Artificial advirtió que esta revolución tecnológica debe ser tan importante como una pandemia o una guerra nuclear en el país.
El Centro para la Seguridad de la Inteligencia Artificial, un grupo de industriales y expertos del sector tecnológico, ha pedido que los líderes mundiales deberían dedicarse a reducir “el riesgo de extinción” que supone la inteligencia artificial.
El Centro se pronunció a través de un comunicado de apenas una línea y que fue firmado por docenas de especialistas, incluido Sam Altman, cuya empresa OpenAI creó el robot conversacional ChatGPT el año pasado y el cual permite crear obras de arte o literarias, ensayos y mantener un diálogo con un ser humano sobre cualquier tema.
También Puede leer:
En el texto, explican que la inteligencia artificial debería ser “una prioridad mundial junto a otros riesgos para la sociedad como las pandemias o la guerra nuclear”.
Los críticos de la inteligencia artificial alertaron sobre la posibilidad de que un algoritmo pueda adueñarse de actividades esenciales para una sociedad, como el suministro de energía o la defensa.
Además, los robots conversacionales y otras aplicaciones de la IA podrían provocar la pérdida de millones de puestos de trabajo.
Este comunicado no es el primero que firman los expertos del sector, quienes al mismo tiempo que invierten y atraen miles de millones de dólares en la IA, se declaran en público intimidados por las posibilidades de esta nueva tecnología.
Hace dos meses otras personalidades, como el multimillonario Elon Musk, firmaron otra carta pública en la que pedían una pausa en el desarrollo de la IA hasta poder garantizar su total seguridad.