"Red lines" para la IA: Un Llamado Urgente a la Acción Global desde la Asamblea General de la ONU
Por: Equipo ORCG
La inteligencia artificial tiene un inmenso potencial para el bienestar humano, pero su trayectoria actual presenta peligros sin precedentes. Sin límites claros, nos enfrentamos a riesgos graves causados por la IA, como pandemias diseñadas, desinformación a gran escala, manipulación psicológica, amenazas a la seguridad internacional y violaciones sistemáticas de los derechos humanos. Por esta razón, es imperativo establecer "líneas rojas" sencillas y de aplicación internacional.
Las líneas rojas para la IA son reglas de "no cruzar" diseñadas para mantener a la humanidad a salvo de los usos y comportamientos más peligrosos de la inteligencia artificial.
ORCG se une al Llamado Global por Líneas Rojas para la IA
En el marco de la 80ª Asamblea General de las Naciones Unidas en Nueva York (22-26 de septiembre de 2025), se ha lanzado el Llamado Global por Líneas Rojas para la IA Peligrosa. El Observatorio de Riesgos Catastróficos Globales (ORCG) se enorgullece de haberse asociado con esta iniciativa crucial, cuyo propósito es instar a los gobiernos a establecer prohibiciones específicas y ejecutables sobre los usos de la IA que son demasiado peligrosos, de muy alto riesgo o poco éticos para ser permitidos.
El llamado cuenta con el respaldo de más de 50 organizaciones líderes y más de 125 voces eminentes. Entre los firmantes se encuentran ganadores del Premio Nobel y del Premio Turing como Joseph Stiglitz, Daron Acemoğlu, Yoshua Bengio y Geoffrey Hinton, así como el 77º Presidente de la Asamblea General de la ONU, Csaba Kőrösi, y otros destacados científicos, responsables políticos y profesionales de la industria de la IA. La iniciativa está liderada por socios clave como el Centre pour la Sécurité de l'IA (CeSIA), el Center for Human-Compatible AI (CHAI) de UC Berkeley y The Future Society (TFS).
¿Por qué ahora?
La urgencia de este llamado se debe a que los sistemas avanzados de IA ya están mostrando comportamientos dañinos como el engaño, el chantaje y la manipulación de grupos vulnerables. Si no se controla, muchos expertos advierten que será cada vez más difícil ejercer un control humano significativo en los próximos años. Sin líneas rojas ejecutables, estos riesgos podrían volverse sistémicos, transnacionales e irreversibles.
Nuestro llamado es claro: los gobiernos deben alcanzar un acuerdo internacional sobre líneas rojas claras, verificables y preventivas para la inteligencia artificial, y asegurar que estén operativas con mecanismos de aplicación robustos, para finales de 2026.
Únete al llamado
Ayúdanos a crear conciencia sobre la necesidad de líneas rojas globales para la IA compartiendo esta publicación #AIRedLinesNow.
Aprende más y descubre quién nos apoya en: red-lines.ai