¿Qué es la Declaración de Betchley y qué supone para el futuro de la Inteligencia Artificial?

4-12-2023

En los últimos años, la Inteligencia Artificial ha pasado de ser un concepto teórico con un cierto aire de ciencia ficción a una realidad al alcance de prácticamente cualquier persona, especialmente desde el lanzamiento de ChatGPT el 30 de noviembre de 2022 por parte de OpenAI. Un año después, hay un amplio abanico de herramientas basadas en Inteligencia Artificial que han transformado el trabajo diario de infinidad de profesionales, como generadores de contenido, diseñadores, programadores, ingenieros o investigadores legales, por poner solo algunos ejemplos.

Sin embargo, ya sabemos que en internet todo tiene su lado oscuro. Si hasta ahora la Dark Web era el monstruo bajo la cama, ahora es la propia herramienta, o mejor dicho, su uso indebido, lo que ha hecho saltar las alarmas ante noticias como falsos vídeos o imágenes creadas con Inteligencia Artificial que no solo afectan a famosos, como el caso de Laura Escanes, sino incluso a menores, como sucedió no hace mucho en un instituto de Almendralejo.

Así, en solo un año las herramientas de Inteligencia Artificial puestas al alcance de la gran mayoría de la población han revelado tener un altísimo potencial para facilitar y mejorar las tareas de muchos profesionales, pero también para perjudicar a muchas personas. Es una evolución del clásico debate del martillo: ¿es una herramienta buena o mala? Se puede utilizar para construir casas para familias, pero también para herir o incluso matar a una persona.

Así, el problema no es intrínseco a la herramienta, sino a su uso. La diferencia entre un martillo y la IA, además de las evidentes, es que en el caso del martillo conocemos los riesgos, podemos controlar su acceso y su daño es limitado. En el caso de la IA es todo lo contrario: todavía no alcanzamos a imaginar una pequeña parte de lo que podemos hacer con todo ese potencial. Para bien o para mal, su acceso a día de hoy es prácticamente libre, y su daño tiene todo el alcance que le proporciona una red conectada a millones de personas.
 

¿Qué se habló en la cumbre mundial sobre seguridad y ai?

Ante este escenario, países de todo el mundo se reunieron el pasado noviembre en Betchley, Reino Unido (anecdóticamente, el lugar donde Alan Turing descifró el código Enigma en la II Guerra Mundial) en la primera cumbre mundial sobre seguridad en relación a la Inteligencia Artificial, para sentar las bases de una cooperación internacional que regule y evite los riesgos derivados de la aplicación de la IA. De estas reuniones ha surgido la Declaración de Betchley.

¿Qué es la Declaración de Betchley y por qué es importante?

Las reuniones de esta primera cumbre han dado como resultado una hoja de ruta que tiene como finalidad mitigar los riesgos asociados a la Inteligencia Artificial, sin renunciar a todos los potenciales beneficios de esta tecnología. Esta hoja de ruta, firmada por 28 países de todo el mundo, es lo que se conoce como Declaración de Betchley.

Hay que tener en cuenta que la Declaración de Betchley no tiene como finalidad sentar las bases de una legislación a nivel mundial, sino que propone el camino a seguir para establecer unos estándares mundiales en relación a la IA. Las repercusiones que tendrán estos estándares en la regulación todavía están por determinar, pero lo que es seguro es que supondrá un referente para armonizar las regulaciones  a nivel global en relación a la seguridad de la IA.

La importancia de la Declaración de Betchley radica en que, por primera vez, países de todo el mundo han aceptado que es urgente entender y gestionar a nivel internacional los riesgos potenciales de la IA, sobre todo los relacionados con ciberseguridad, biotecnología y desinformación, y que el esfuerzo para garantizar que esta tecnología se desarrolla y se aplica de forma segura requiere un enfoque colaborativo.

El comunicado emitido por el Gobierno de UK en este sentido reconoce que existe "un potencial de daño grave", incluso catastrófico, ya sea deliberado o no, derivado de las capacidades más significativas de estos modelos de IA». Por ello, este acuerdo histórico es un gran avance para crear un entorno tecnológico más seguro.

La agendA se centra en dos ejes: RIESGOS AI

  • Identificar los riesgos de seguridad de la IA de interés compartido, construir una comprensión compartida científica y basada en evidencia de estos riesgos, y mantener esa comprensión a medida que las capacidades continúan aumentando, en el contexto de un enfoque global más amplio para comprender el impacto de la IA en nuestras sociedades.
  • Construir políticas respectivas basadas en riesgos en nuestros países para garantizar la seguridad a la luz de dichos riesgos, colaborando según corresponda y reconociendo que nuestros enfoques pueden diferir según las circunstancias nacionales y los marcos legales aplicables. Esto incluye, junto con una mayor transparencia por parte de los actores privados que desarrollan capacidades de IA de vanguardia, métricas de evaluación apropiadas, herramientas para pruebas de seguridad y el desarrollo de capacidades e investigaciones científicas relevantes del sector público.

La clave de la Declaración es que enfatiza la cooperación internacional y la compartición de conocimientos para entender mejor, hacer frente a los riesgos y potenciar las oportunidades de la IA. El objetivo de establecer unos estándares de seguridad en el diseño, desarrollo e implementación de herramientas de IA será un gran paso adelante en la regulación de esta tecnología, y en el desarrollo de una IA ética que respete los derechos humanos, la privacidad y los valores democráticos.

Otro aspecto que se destaca en la Declaración es la importancia de la transparencia y la rendición de cuentas en los sistemas de Inteligencia Artificial, un punto clave para generar confianza si queremos que el uso de la IA se integre completamente en la sociedad.

El avance de la Inteligencia Artificial es imparable por sus potenciales beneficios para toda la sociedad, pero eso no quiere decir que tenga que avanzar sin control, ya que también se han puesto de manifiesto sus riesgos.

La Declaración ha sido firmada por 28 países de todo el mundo, tanto naciones con un alto desarrollo tecnológico como potencias tecnológicas emergentes, con representación de los cinco continentes.

Quizás lo más destacado ha sido la adhesión de Estados Unidos y China a la Declaración. Estos dos países habían mostrado una gran reticencia a imponer regulaciones o límites al desarrollo de la IA. Por su parte, Japón, otro de los países firmantes de la Declaración de Betchley, lidera un foro conocido como el Proceso de Hiroshima, en el que los miembros del G7 proponen un código de conducta voluntario para desarrolladores de IA, aunque mucho más genérico. En España, se ha puesto en marcha la Agencia Española de Supervisión de la Inteligencia Artificial.

La Declaración de Betchley ha supuesto un avance sin precedentes en la creación de un marco de actuación para el desarrollo y la implementación de la IA a nivel internacional. Estamos impacientes por ver cómo avanzará la hoja de ruta en las próximas reuniones que se llevarán a cabo en Corea del Sur y Francia respectivamente. 

Más información