Advertencia de Expertos en IA: Riesgo de Extinción Humana por la Inteligencia Artificial
Un grupo de expertos, incluyendo líderes de OpenAI y Google Deepmind, advierten sobre los riesgos de la inteligencia artificial (IA) para la humanidad. El director ejecutivo de OpenAI, Sam Altman, respalda la necesidad de priorizar la regulación de la IA para evitar posibles amenazas existenciales. No obstante, hay quienes, como Yann LeCunn de la Universidad de Nueva York, consideran exageradas estas advertencias, centrándose en problemas inmediatos como el sesgo en los sistemas de IA.
La discusión sobre los riesgos de la IA se intensificó desde una carta abierta firmada por líderes como Elon Musk en 2023, planteando la posibilidad de que la IA sobrepase a la humanidad en inteligencia y reemplazo. Mientras algunos comparan la superinteligencia con el riesgo de una guerra nuclear, sugiriendo regulaciones similares a las de la energía nuclear, otros, como Arvind Narayanan de la Universidad de Princeton, creen que los riesgos actuales son más inmediatos, como el sesgo en los sistemas.
Altman y Sundar Pichai, CEO de Google, forman parte de un grupo que ha debatido con líderes mundiales sobre la necesidad de regular la IA. Rishi Sunak, primer ministro británico, reconoce los beneficios de la IA pero busca establecer límites y regulaciones para garantizar su seguridad. Este tema se abordó en la cumbre del G7, donde se formó un grupo de trabajo sobre IA.
Fuente : BBC News Mundo