The struggle to control AI – POLITICO

The struggle to control AI – POLITICO

Pulse play para escuchar este artículo

Expresado por inteligencia artificial.

LULEÅ, Suecia – Los principales funcionarios europeos y estadounidenses se reunieron el miércoles en Suecia para conversaciones sobre tecnología y comercio e intentaron dar una respuesta a uno de los problemas más difíciles que se enfrenta al mundo: cómo controlar la inteligencia artificial.

Durante una comida de una hora de lomo de bacalao y praliné de chocolate, funcionarios de Washington y Bruselas elaboraron un «código de conducta» voluntario diseñado para prevenir daños, incluida la tecnología de inteligencia artificial más avanzada conocida como a IA generativa, como ChatGPT de OpenAI y Google. Bardo. En pocos meses, la tecnología ha cogido al público por asalto, provocando esperanzas y angustias por el futuro de la humanidad.

Aunque algunos se han emocionado por el potencial de la IA para generar código informático y resolver problemas médicos, otros temen que deje a millones de personas sin trabajo e incluso pueda amenazar la seguridad.

«La democracia debe demostrar que somos tan rápidos como la tecnología», dijo Margrethe Vestager, comisaria digital de Europa, a los periodistas cuando entró en la cumbre UE-Estados Unidos del Consejo de Comercio y Tecnología (TTC) en la pequeña ciudad industrial de Luleå, a 150 kilómetros al sur del círculo polar ártico.

El TTC se ha convertido en una reunión semestral en la que los principales líderes transatlánticos como el secretario de estado estadounidense Antony Blinken y el jefe comercial de la Unión Europea, Valdis Dombrovskis, presentan enfoques comunes sobre todo, desde los semiconductores hasta las inversiones en tecnología verde. La cuarta edición de esta semana está dominada por la forma de hacer retroceder contra China, donde ambas partes aún luchan por ponerse de acuerdo.

Pero cuando se trata del auge de la IA, EEUU y la UE están cada vez más ansiosos por avanzar juntos.

«Está llegando a un ritmo como ninguna otra tecnología», dijo Gina Raimondo, la secretaria de comercio de EEUU, en referencia a la IA generativa. «El Congreso de Estados Unidos o el parlamento (de un país) o las demás agencias reguladoras necesitará algo de tiempo para ponerse al día».

Pero el plan conjunto está aún en borrador, en el mejor de los casos. Vestager le dijo a POLITICO que el código de conducta voluntario era actualmente una nota informativa de dos páginas producida por la Comisión Europea que ella había entregado personalmente a Raimondo el miércoles.

El objetivo, según el político danés, debe elaborar estándares no vinculantes sobre transparencia, auditorías de riesgos y otros detalles técnicos para las empresas que desarrollan la tecnología. A continuación, se presentará a los líderes del G7 como una propuesta transatlántica conjunta en otoño.

Con las normas de IA obligatorias dentro de años, un código voluntario es, en el mejor de los casos, un punto provisional hasta que exista una legislación vinculante.

«La democracia debe demostrar que somos tan rápidos como la tecnología», dijo la comisaria digital europea, Margrethe Vestager, cuando entró en el Consejo de Comercio y Tecnología UE-EE.UU. JOnas Ekstromer/Agencia de noticias TT/AFP a través de Getty Images

«Estamos de acuerdo en que vamos a trabajar en esto, vamos a incorporar compañeros a bordo, para encajar en el proceso del G7», dijo Vestager a los periodistas.

Si ese esfuerzo falla, podría dejar una apertura en China para promover su propia versión autoritaria de la tecnología en todo el mundo.

Donde Europa y EEUU divergen

Sin embargo, existe una división masiva en forma de IA entre Washington y Bruselas sobre las reglas.

La UE, reforzada por un historial de escritura de gran parte del libro de normas digital que ahora domina el mundo occidental, está avanzando con normas obligatorias para la inteligencia artificial que requerirían que las empresas no utilizaran la tecnología de modos «perjudiciales» predefinidas. A finales de diciembre, los funcionarios europeos esperan completar la Ley de IA de la UE, después de unas duras negociaciones políticas que se han alargado durante más de dos años.

Pero los países europeos y los miembros del Parlamento Europeo, ambos deben ponerse de acuerdo en un texto definitivo, están enfrentados sobre algunos aspectos clave del texto, en particular sobre el reconocimiento facial en lugares públicos. Mientras, la industria tecnológica ha rechazado lo que considera una supervisión demasiado onerosa de la IA generativa.

El esfuerzo en Bruselas ha llevado a la industria norteamericana, que está invirtiendo miles de millones de dólares en IA, en mantener los ojos puestos en la UE para una legislación concreta, como lo que ocurrió cuando el blog comenzó a hacer leyes sobre privacidad y contenido online.

EEUU, por su parte, prefiere un enfoque más libre, confiando en la industria para proponer sus propias garantías. Las divisiones políticas en curso en el Congreso hacen que sea poco probable que se apruebe ninguna legislación específica sobre IA antes de las elecciones norteamericanas del próximo año.

La administración de Biden ha hecho de la colaboración internacional en IA una prioridad política, sobre todo porque la mayoría de las principales empresas de IA como Google, Microsoft y OpenAI, tienen sede en EE.UU. Para Washington, ayudar a estas empresas a competir contra los rivales de China es también una prioridad de seguridad nacional. .

En las últimas semanas, la Casa Blanca ha abierto sus puertas en la industria, acogiendo a los consejeros delegados de cuatro grandes empresas de IA a principios de mayo para una discusión privada. Ha puesto en marcha esfuerzos por conseguir que las empresas tecnológicas se comprometan con normas voluntarias sobre comportamiento responsable. Y cuando se trata de establecer estándares internacionales, ha estado impulsando el marco de gestión de riesgos desarrollado en EE.UU. por los Institutos Nacionales de Estándares y Tecnología.

Construir el enfoque de Occidente

El miércoles, altos funcionarios de EE.UU. y de la UE intentaron eludir estos fallos con un enfoque que se basaría en los principios globales existentes propuestos por la Organización para la Cooperación y el Desarrollo Económico. Tenían el objetivo de ir más allá de la OCDE, señalando específicamente los potenciales inconvenientes de la IA generativa.

Un acuerdo general ofrecería a las empresas más certeza sobre cómo esta tecnología emergente será controlada por los dos mayores bloques económicos de Occidente. El objetivo es acelerar un código voluntario, aunque probablemente se basará en las reglas europeas existentes para la IA y no está claro si los funcionarios y las empresas estadounidenses apoyarán este enfoque.

«La claridad normativa será una buena cosa», dijo Sam Altman, director ejecutivo de OpenAI, la empresa tecnológica detrás de ChatGPT, durante un evento en París la semana pasada, mientras estaba en una gira europea que también incluir Varsovia, Madrid, Munich y Londres. El jefe tecnológico se reunió virtualmente con Vestager el miércoles durante el que discutieron el código de conducta voluntario propuesto.

Sin embargo, hay preguntas sobre si la UE habla con una sola voz.

Algunos funcionarios de Bruselas esperan poder introducir algunas de las reglas del blog en el llamado Pacto de IA una promesa voluntaria aparte de que las empresas pueden suscribirse relacionada con la próxima Ley de IA de Europa que probablemente entrará en vigor en 2026.

Thierry Breton, comisario de mercado interior de la UE, dijo que cualquier coordinación normativa con socios afines como EE.UU. se basaría en el enfoque actual de Europa. «Si los demás quieren inspirarse, por supuesto, son bienvenidos», dijo.

By Fatiha Lema

You May Also Like