Ministros y representantes de varios países se reúnen en una cumbre para discutir la seguridad en inteligencia artificial en Bletchley Park, Reino Unido.
El documento, entre cuyos firmantes también se encuentran Brasil y Chile, destaca “la urgente necesidad de comprender y gestionar colectivamente los riesgos potenciales” de la IA.
Dado el creciente potencial de modelos como ChatGPT, la declaración de Bletchley muestra que se están uniendo para identificar el problema y resaltar sus oportunidades.
Posteriormente se celebrarán dos cumbres internacionales sobre la IA, una en Corea del Sur -dentro de seis meses- y otra en Francia, dentro de un año.
Paralelamente a la reunión, la vicepresidenta estadounidense, Kamala Harris, anunciará en un discurso en Londres la creación de un instituto sobre la seguridad de la inteligencia artificial en Washington.
Esta estructura -similar a la también anunciada por el Reino Unido- reune a expertos para establecer «directivas» y evaluar los modelos de IA más avanzados para «identificar y mitigar» riesgos, según la Casa Blanca.
Las IA generativas -capaces de producir texto, sonidos o imágenes en cuestión de segundos- han progresado exponencialmente en los últimos años y las próximas generaciones de estos modelos aparecerán en verano.
Ofrecen grandes esperanzas para los campos de la medicina y la educación, pero también podrían desestabilizar las sociedades, permitir la fabricación de armas humanas o eludir el control de armas humanas, advierte el gobierno británico.
Entre ellos, la presidenta de la Comisión Europea, Ursula von der Leyen, el secretario general de la ONU, Antonio Guterres, la jefa del gobierno italiano, Giorgia Meloni, el multimillonario y empresario estrella estadounidense Elon Musk entre otros.
«Nuestro objetivo es establecer un marco para una mejor comprensión (…), y para que haya al menos un árbitro independiente que pueda observar lo que están haciendo las empresas de IA y dar la alarma si algo le preocupa», dijo Musk a la prensa.
La esperanza para esta cumbre es que haya un consenso internacional sobre la comprensión inicial de la IA avanzada.
En una carta abierta publicada el martes, varios de los “padres fundadores” de esta tecnología, como Yoshua Bengio y Geoffrey Hinton, abogaron por “el desarrollo y la ratificación de un tratado internacional sobre IA”, para reducir riesgos “potencialmente catastróficos” que hacen los sistemas avanzados a pesar de la humanidad”.
El desafío es establecer salvaguardias sin obstaculizar la innovación de los laboratorios de inteligencia artificial y los gigantes tecnológicos.
La UE y Estados Unidos, a diferencia del Reino Unido, eligieron el camino de la regulación.
La semana pasada, varias empresas como OpenAI, Meta (Facebook) o DeepMind (Google) acordaron hacer públicas algunas de sus políticas de seguridad en IA a petición del Reino Unido.
En una carta abierta dirigida a Rishi Sunak, un centenar de organizaciones internacionales, expertos y activistas lamentaron que esta cumbre se celebre a «puertas cerradas», dominada por gigantes tecnológicos y con acceso limitado para la sociedad civil.