14.4 C
Miami
lunes, febrero 26, 2024
spot_img

Expertos advierten que la inteligencia artificial supone un riesgo de “extinción” para la humanidad

Un grupo de industriales y expertos del sector tecnológico advirtió este martes que la inteligencia artificial supone un “riesgo de extinción” que los líderes mundiales deberían comprometerse a reducir.

Entre los firmantes se encuentran el director ejecutivo de OpenAI, Sam Altman, y el primer ejecutivo de GoogleDeepMind, Demis Hassabis y más personalidades del sector tecnológico. Cualquier experto se puede sumar al comunicado en el formulario que ofrece la web de la organización AI Safety, publicadora del escrito.

El comunicado apenas abarca una línea, o 22 palabras, en inglés: “Mitigar el riesgo de extinción de la IA debería ser una prioridad mundial junto con otros riesgos a escala social, como las pandemias y la guerra nuclear”.

  

Expertos advierten que la inteligencia artificial supone un riesgo de “extinción” para la humanidad

Un comunicado, firmado por expertos del sector tecnológico, advierte de que el riesgo de extinción de la IA “debería ser una prioridad mundial” como las pandemias o la guerra nuclear.

Importantes ejecutivos, científicos y humanistas, entre ellos el multimillonario Elon Musk, firmaron una carta más extensa en el que pedían detener el desarrollo de la IAImportantes ejecutivos, científicos y humanistas, entre ellos el multimillonario Elon Musk, firmaron una carta más extensa en el que pedían detener el desarrollo de la IA

FOTO: DEUTSCHE WELLE

Un grupo de industriales y expertos del sector tecnológico advirtió este martes que la inteligencia artificial supone un “riesgo de extinción” que los líderes mundiales deberían comprometerse a reducir.

Entre los firmantes se encuentran el director ejecutivo de OpenAI, Sam Altman, y el primer ejecutivo de GoogleDeepMind, Demis Hassabis y más personalidades del sector tecnológico. Cualquier experto se puede sumar al comunicado en el formulario que ofrece la web de la organización AI Safety, publicadora del escrito.

El comunicado apenas abarca una línea, o 22 palabras, en inglés: “Mitigar el riesgo de extinción de la IA debería ser una prioridad mundial junto con otros riesgos a escala social, como las pandemias y la guerra nuclear”.

The video player is currently playing an ad. You can skip the ad in 5 sec with a mouse or keyboard

El escrito fue publicado por la organización sin fines de lucro con sede en San Francisco Center for AI Safety y no es el primero que firman los expertos del sector, que, al mismo tiempo que invierten y atraen miles de millones de dólares en la IA, dejan claro que hasta para ellos es difícil estimar los límites de esta nueva tecnología.

Prevenir efectos nocivos

Hace apenas dos meses, importantes ejecutivos, científicos y humanistas, entre ellos el multimillonario Elon Musk, firmaron una carta más extensa en el que pedían detener el desarrollo de nuevas tecnologías hasta poder garantizar su seguridad total y evitar efectos nocivos.

Eliezer Yudkowsky decía que sería preferible que hubiera una guerra nuclear a desarrollar sistemas avanzados de IA. Geoffrey Hinton advertía por ejemplo de la amenaza de la desinformación. En su declaración ante el congreso, Sam Altman que “si esta tecnología va mal, puede ir bastante mal”

Estas afirmaciones llegan en un momento en el que el número de herramientas de inteligencia crecen vertiginosamente, a la vez que los retos actuales, como la guerra en Ucrania o la crisis climática, demuestran el riesgo que supone la inteligencia artificial, especialmente en torno a la desinformación.

por La Opinion.com

Related Articles

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Stay Connected

0FansLike
3,913FollowersFollow
0SubscribersSubscribe
- Advertisement -spot_img

Latest Articles