Cómo Europa está construyendo barandillas de inteligencia artificial

LONDRES — Las autoridades de todo el mundo se apresuran a elaborar reglas para la inteligencia artificial, incluso en la Unión Europea, donde el proyecto de ley enfrenta un momento crucial el jueves.

Un comité del Parlamento Europeo está listo para votar sobre las reglas propuestas, como parte de un esfuerzo de un año para elaborar barandillas para la inteligencia artificial. Esos esfuerzos se han vuelto más urgentes a medida que el rápido avance de ChatGPT destaca los beneficios que puede traer la tecnología emergente y los nuevos peligros que plantea.

Aquí hay un vistazo a la Ley de Inteligencia Artificial de la UE:

¿CÓMO FUNCIONAN LAS REGLAS?

La Ley de IA, propuesta por primera vez en 2021, regirá cualquier producto o servicio que utilice un sistema de inteligencia artificial. La ley clasificará los sistemas de IA según cuatro niveles de riesgo, desde mínimo hasta inaceptable. Las aplicaciones más riesgosas enfrentarán requisitos más estrictos, que incluyen ser más transparentes y utilizar datos precisos. Piense en ello como un «sistema de gestión de riesgos para la IA», dijo Johann Laux, experto del Instituto de Internet de Oxford.

¿CUÁLES SON LOS RIESGOS?

Uno de los principales objetivos de la UE es protegerse contra cualquier amenaza de IA para la salud y la seguridad y proteger los derechos y valores fundamentales.

Eso significa que algunos usos de la IA están absolutamente prohibidos, como los sistemas de «puntuación social» que juzgan a las personas en función de su comportamiento o los juguetes parlantes interactivos que fomentan un comportamiento peligroso.

Se espera que se prohíban las herramientas policiales predictivas, que procesan datos para pronosticar dónde ocurrirán los delitos y quién los cometerá. También lo es el reconocimiento facial remoto, excepto por algunas excepciones limitadas, como la prevención de una amenaza terrorista específica. La tecnología escanea a los transeúntes y usa IA para hacer coincidir sus rostros con una base de datos. La votación del jueves decidirá cuán extensa será la prohibición.

El objetivo es “evitar una sociedad controlada basada en IA”, dijo a los periodistas el miércoles Brando Benifei, el legislador italiano que ayuda a liderar los esfuerzos de IA del Parlamento Europeo. “Creemos que estas tecnologías podrían usarse en lugar de lo bueno también para lo malo, y consideramos que los riesgos son demasiado altos”.

Los sistemas de IA utilizados en categorías de alto riesgo como el empleo y la educación, que afectarían el curso de la vida de una persona, enfrentan requisitos estrictos, como ser transparentes con los usuarios y establecer medidas de evaluación y mitigación de riesgos.

El brazo ejecutivo de la UE dice que la mayoría de los sistemas de inteligencia artificial, como los videojuegos o los filtros de spam, entran en la categoría de riesgo bajo o nulo.

¿QUÉ PASA CON CHATGPT?

La propuesta original de 108 páginas apenas mencionaba los chatbots, simplemente requería que estuvieran etiquetados para que los usuarios sepan que están interactuando con una máquina. Posteriormente, los negociadores agregaron disposiciones para cubrir la IA de propósito general como ChatGPT, sometiéndolas a algunos de los mismos requisitos que los sistemas de alto riesgo.

Una adición clave es el requisito de documentar minuciosamente cualquier material con derechos de autor utilizado para enseñar a los sistemas de IA cómo generar texto, imágenes, video o música que se asemeje al trabajo humano. Eso permitiría a los creadores de contenido saber si sus publicaciones de blog, libros digitales, artículos científicos o canciones pop se han utilizado para entrenar algoritmos que alimentan sistemas como ChatGPT. Entonces podrían decidir si su trabajo ha sido copiado y buscar reparación.

¿POR QUÉ SON TAN IMPORTANTES LAS NORMAS DE LA UE?

La Unión Europea no es un gran jugador en el desarrollo de IA de vanguardia. Ese papel lo asumen EE.UU. y China. Pero Bruselas a menudo juega un papel que marca tendencias con regulaciones que tienden a convertirse en estándares globales de facto.

«Los europeos son, globalmente hablando, bastante ricos y hay muchos de ellos», por lo que las empresas y organizaciones a menudo deciden que el mero tamaño del mercado único del bloque con 450 millones de consumidores hace que sea más fácil cumplir que desarrollar diferentes productos para diferentes regiones, Laux dicho.

Pero no se trata sólo de tomar medidas enérgicas. Al establecer reglas comunes para la IA, Bruselas también está tratando de desarrollar el mercado infundiendo confianza entre los usuarios, dijo Laux.

“La idea detrás de esto es que si puede inducir a las personas a que confíen en la IA y en las aplicaciones, también la usarán más”, dijo Laux. “Y cuando lo usen más, desbloquearán el potencial económico y social de la IA”.

¿Y SI ROMPE LAS REGLAS?

Las infracciones generarán multas de hasta 30 millones de euros (33 millones de dólares) o el 6% de los ingresos globales anuales de una empresa, que en el caso de empresas tecnológicas como Google y Microsoft podrían ascender a miles de millones.

¿QUE SIGUE?

Podrían pasar años antes de que las reglas entren en vigencia por completo. La propuesta legislativa emblemática se enfrenta a una votación conjunta del comité del Parlamento Europeo el jueves. El proyecto de ley luego pasa a negociaciones tripartitas que involucran a los 27 estados miembros del bloque, el Parlamento y la Comisión ejecutiva, donde enfrenta más disputas sobre los detalles. Se espera la aprobación final para finales de año, o principios de 2024 a más tardar, seguido de un período de gracia para que las empresas y organizaciones se adapten, a menudo alrededor de dos años.

Sé el primero en comentar

Dejar una contestacion

Tu dirección de correo electrónico no será publicada.


*