Want to create interactive content? It’s easy in Genially!

Over 30 million people create interactive content in Genially.

Check out what others have designed:

Transcript

Autor: Lisardo García Rodulfo

LA IA Y EL PRINCIPIO DE INCERTIDUMBRE: EL PROYECTO DE REGLAMENTO EUROPEO DE IA

LA IA Y EL PRINCIPIO DE INCERTIDUMBRE: EL PROYECTO DE REGLAMENTO EUROPEO DE IA

Vivimos unos momentos donde es obligado tomar medidas urgentes para evitar daños brutales. Desafortunadamente, las leyes van muy por detrás de lo que se está desarrollando y todavía tardarán mucho en llegar. Bill Gates, llamado por algunos el nuevo Nostradamus, ha comentado recientemente la importancia que para nuestras vidas va a tener la IA. Gates asegura que el desarrollo de esta tecnología es “tan fundamental como la creación del microprocesador, el ordenador personal, internet o el teléfono móvil” 1.

LA IA Y EL PRINCIPIO DE INCERTIDUMBRE: EL PROYECTO DE REGLAMENTO EUROPEO DE IA

Desafortunadamente

Bank of América dice que la inteligencia artificial generativa será la mayor revolución tecnológica desde la electricidad. Energía, armas, medicinas o naves espaciales; todas las industrias ya están siendo transformadas por una tecnología, aseguran, que en solo siete años aportará 15,7 billones de dólares a la economía mundial; más que el producto interior bruto anual de toda la zona euro en 2022. Tom Graham, cofundador de Metaphysic, − uno de los líderes del sector que ha revolucionado Hollywood con la nueva tecnología, que se hizo viral con el falso Tom Cruise− afirma que estamos en un momento en que toda la sociedad (individuos, tecnólogos, consumidores y legisladores) deben tomar medidas urgentes para evitar daños brutales al público y las democracias.

LA IA Y EL PRINCIPIO DE INCERTIDUMBRE: EL PROYECTO DE REGLAMENTO EUROPEO DE IA

Los tiempos se aceleran exponencialmente. Ya han dejado de interesar las inversiones en el metaverso; ahora solo interesa el desarrollo de la IA. En algún momento del futuro cercano, perderemos nuestra capacidad para distinguir entre los hechos y la ficción creada por las máquinas, sin importar cuántas herramientas forenses podamos idear. Esto podrá ocurrir, según algunos expertos, en los próximos diez años. En este escaso margen de tiempo, podremos crear cualquier cosa que un ser humano pueda imaginar, con una calidad visual perfecta en tiempo real.

LA IA Y EL PRINCIPIO DE INCERTIDUMBRE: EL PROYECTO DE REGLAMENTO EUROPEO DE IA

Gil Perry, CEO y cofundador de la compañía israelí D-ID, es mucho más categórico: “En uno o dos años, no seremos capaces saber qué es verdad y qué es mentira”. La tecnología de IA generativa podrá cambiar tu cara e incluso tu entorno en herramientas de comunicación como Zoom, en tiempo real y de forma totalmente creíble, en pocos años. CChatGPT de Open AI ha puesto la inteligencia artificial en el centro de la industria tecnológica, empujando a todos los gigantes del negocio a iniciar una alocada carrera por dominar esta revolución; una competición en la que los anuncios ya no suceden en semanas, sino en días o incluso horas.

LA IA Y EL PRINCIPIO DE INCERTIDUMBRE: EL PROYECTO DE REGLAMENTO EUROPEO DE IA

La respuesta de Google y Microsoft ha sido inmediata; parecía y que estaban esperando a que alguien levantara la liebre. El Nuevo GDocs y Gmail, la renovación de Microsoft Office; son solo algunas de las muchas novedades que se han desvelado recientemente. También GPT-4, el nuevo modelo de lenguaje de Open AI, una iteración más humana de inteligencia artificial. Geoffrey Hinton, ganador del premio Turing (el Nobel en informática), a finales de abril de 2023, ha abandonado Google. El “padrino de la IA” explica que ha renunciado a su empleo y nos dice que “esta tecnología funciona mejor que el cerebro humano y nadie tiene garantías de cómo podrá mantenerse bajo su control”.

LA IA Y EL PRINCIPIO DE INCERTIDUMBRE: EL PROYECTO DE REGLAMENTO EUROPEO DE IA

Ni que decir tiene que, de la lectura de todas estas opiniones, se vislumbran las dos inevitables caras de la moneda, o lo que modestamente he denominado “el nuevo principio de incertidumbre”. El lado positivo, lo que la IA puede aportar, por ejemplo, a campos como la medicina, el trasporte o el cambio climático, y, cómo no, el tenebroso lado oscuro de toda esta tecnología: su aplicación criminal. Esta herramienta será también extremadamente poderosa para hacer el mal; una auténtica bomba atómica al alcance de cualquiera, porque, según los expertos, la barrera de entrada es cero (no requiere de ningún conocimiento o equipo especializado).

El 22 de mayo

LA IA Y EL PRINCIPIO DE INCERTIDUMBRE: EL PROYECTO DE REGLAMENTO EUROPEO DE IA

La inteligencia artificial generativa, sin pecar de alarmista, es una fuerza que será totalmente incontrolable en apenas unos pocos años si no tomamos ahora algunas medidas radicales. Este es el papel del derecho y también el de la ética. Ya hemos comenzado a escuchar las primeras voces de alarma. En una comparecencia ante el subcomité del Senado de los EE. UU., el 16 de mayo, Altman, cofundador de OpenAI, hizo un listado de las aplicaciones beneficiosas de la tecnología, pero matizó que es necesaria la intervención de los Gobiernos del mundo para asegurar que estas herramientas se desarrollan de manera que protejan y respeten los derechos y las libertades de los ciudadanos.

Fuente: https://www.monempresarial.com/2021/05/24/entrevista-a-thierry-breton-comisario-europeo-de-mercado-interior/

LA IA Y EL PRINCIPIO DE INCERTIDUMBRE: EL PROYECTO DE REGLAMENTO EUROPEO DE IA

El comisario europeo de Mercado Interior, Thierry Breton, se reunió el 24 de mayo en Bruselas con el consejero delegado de Google, Sundar Pichai, con el objetivo de sellar un pacto sobre el uso de la IA antes del futuro reglamento europeo sobre la IA. Los trámites legislativos europeos son lentos y la IA va muy rápido. “Hay que trabajar junto con todos los desarrolladores para desplegar ya un pacto de inteligencia artificial de forma voluntaria antes de la fecha límite legal”, afirmó el comisario europeo.

Los legisladores

LA IA Y EL PRINCIPIO DE INCERTIDUMBRE: EL PROYECTO DE REGLAMENTO EUROPEO DE IA

El 31 de mayo, en la IV edición del Consejo de Comercio y Tecnología (TTC) en Lulea (Suecia), la UE y los EE. UU. acordaron elaborar en las próximas semanas un código de conducta para la IA generativa, al que la industria pueda someterse con carácter voluntario y al que, según Margrethe Vestager (vicepresidenta europea para el área digital y de competencia), “se intentará que se unan empresas de otros países, como Canadá, Reino Unido, Japón o la India; podría suponer un “puente” regulador hasta que entre en vigor la reglamentación en marcha —o futuras leyes en otras regiones— y dar así confianza a la ciudadanía de que las democracias responden ante sus retos e inquietudes”.

LA IA Y EL PRINCIPIO DE INCERTIDUMBRE: EL PROYECTO DE REGLAMENTO EUROPEO DE IA

El proyecto de reglamento europeo

El pasado 21 de abril se publicó la versión definitiva de la esperada propuesta de Reglamento (UE) de la Comisión Europea sobre el marco jurídico aplicable a los sistemas de Inteligencia Artificial (IA). Dicha propuesta regula los sistemas de IA de alto riesgo y contiene, además, reglas de transparencia armonizadas para aquellos sistemas dirigidos a interactuar con personas físicas para generar o manipular imágenes, sonidos o contenidos de vídeo.

Sistemas de IA de alto riesgo

LA IA Y EL PRINCIPIO DE INCERTIDUMBRE: EL PROYECTO DE REGLAMENTO EUROPEO DE IA

Sistemas de IA prohibidos

Es importante destacar que el reglamento propone un ámbito de aplicación subjetivo y territorial amplio, que comprendería a todos los actores dentro de la cadena de valor de la IA (es decir, proveedores, importadores, distribuidores) y alcanzaría tanto aquellos ubicados en la UE como los empleados en un tercer país (siempre y cuando, en este último caso, desplieguen los efectos en la UE). La regulación propuesta divide los sistemas de IA en torno a cuatro niveles de riesgo, a los que le impone más o menos obligaciones en función de su categorización:

Resto de sistemas de IA

Sistemas de IA de riesgo medio/bajo

LA IA Y EL PRINCIPIO DE INCERTIDUMBRE: EL PROYECTO DE REGLAMENTO EUROPEO DE IA

Sistemas de IA de alto riesgo

Resto de sistemas de IA

Sistemas de IA prohibidos

Sistemas de IA de riesgo medio/bajo

LA IA Y EL PRINCIPIO DE INCERTIDUMBRE: EL PROYECTO DE REGLAMENTO EUROPEO DE IA

Principales obligaciones

A continuación, hacemos un resumen de las principales obligaciones para cada una de las anteriores categorías de sistemas de IA:

LA IA Y EL PRINCIPIO DE INCERTIDUMBRE: EL PROYECTO DE REGLAMENTO EUROPEO DE IA

Régimen sancionador

De no cumplirse con las anteriores obligaciones, se prevén multas que podrían llegar hasta 30 millones de euros o el 6% del volumen de negocio anual total a escala mundial del ejercicio financiero anterior. Esta propuesta de reglamento será revisada y debatida por el Parlamento Europeo y el Consejo, que podrán sugerir enmiendas. Una vez aprobado, el reglamento será de aplicación directa en todos los países de la UE, lo que debe permitir una aplicación homogénea.

LA IA Y EL PRINCIPIO DE INCERTIDUMBRE: EL PROYECTO DE REGLAMENTO EUROPEO DE IA

Esta propuesta tiene en cuenta las recomendaciones del Parlamento Europeo del 20 de octubre de 2020, donde se constituyó el primer paquete de un posible marco regulatorio sobre IA, consistente en tres resoluciones con recomendaciones a la Comisión Europea en los ámbitos de la ética, la propiedad intelectual y la responsabilidad civil. La propuesta de reglamento europeo de abril de 2021 ha sido modificada introduciendo una serie de enmiendas aprobadas por el Comité el 12 de mayo de 2023 entre las que destacan:

Las obligaciones

LA IA Y EL PRINCIPIO DE INCERTIDUMBRE: EL PROYECTO DE REGLAMENTO EUROPEO DE IA

La propuesta inicial del reglamento IA (abril de 2021) no incluía una definición en la que se pudieran englobar los sistemas de IA generativa como una subcategoría concreta dentro de los sistemas de IA. Sin embargo, la aparición de ChatGPT, Midjourney y otros sistemas de IA generativa han impulsado a los legisladores de la UE a incorporar una regulación específica para este tipo de sistemas de IA. Si bien la propuesta del Consejo ya había introducido el concepto de sistema de IA de propósito general, el Compromiso del PE añade la noción de “modelo fundacional”, como subcategoría de los sistemas de propósito general.

LA IA Y EL PRINCIPIO DE INCERTIDUMBRE: EL PROYECTO DE REGLAMENTO EUROPEO DE IA

El art. 28b.4 del Compromiso del PE regula específicamente los modelos fundacionales utilizados en sistemas de IA generativa como ChatGPT, estableciendo un último nivel más estricto de obligaciones y requisitos. A modo ilustrativo, los proveedores deberán: (i) diseñar el modelo para que evite la generación de contenidos ilegales; (ii) publicar un resumen detallado de los datos de entrenamiento protegidos por derechos de autor, (iii) cumplir con las obligaciones de transparencia del artículo 52.1.

LA IA Y EL PRINCIPIO DE INCERTIDUMBRE: EL PROYECTO DE REGLAMENTO EUROPEO DE IA - Conclusiones

Es evidente que la regulación normativa llega tarde; no solo se aprobará tarde el reglamento (finales de año o hasta febrero de 2024), sino que se dará un plazo para que entre en vigor. Creo que se ha obviado por parte de los políticos y empresarios de la IA que justamente los filósofos deben de ser escuchados, en estos momentos donde es necesario dotar a esta tecnología de contenidos éticos. ¿Hasta dónde se puede llegar? ¿Cuál es el límite a la IA? ¿Cuánto debe influir el humano en los aprendizajes de la máquina? ¿Estamos muy cerca de una IA que piensa por sí sola? Recordemos el ordenador HAL en “2001, una odisea en el espacio”: ¿podría una inteligencia artificial sublevarse? El que una IA comience a pensar por sí misma es uno de los mayores temores a la hora de desarrollar la tecnología.

Conclusiones

LA IA Y EL PRINCIPIO DE INCERTIDUMBRE: EL PROYECTO DE REGLAMENTO EUROPEO DE IA - Conclusiones

Tema revisado

Hemos comenzado un difícil camino hacia una IA compatible con los derechos humanos. ¿Cómo solventar los problemas que ocasionará en el mundo laboral la sustitución del trabajo humano por máquinas; la cotización a la seguridad social de las máquinas? Todo ello teniendo en cuenta los problemas que ya están ocasionando a los derechos de autor en publicaciones (películas, música, pintura; en definitiva, en todas las artes). Pero no solo bastará una estructura legal, también habrá que educar a la población para que podamos entender el alcance de la inteligencia artificial generativa. Las personas debemos aprender para poder defendernos de todas estas nuevas amenazas. Lisardo García Rodulfo Abogado. Director de la firma Maat Abogados & Asociados

Las obligaciones que se imponen a los proveedores de modelos fundacionales abarcan, entre otros puntos, la gestión de riesgos, la gobernanza de los datos y el nivel de solidez del modelo básico, que deberá ser examinado por expertos independientes. Se les exige también diseñar y desarrollar sus modelos haciendo uso de las normas aplicables para reducir el consumo de energía, el uso de recursos y los residuos, así como para aumentar la eficiencia energética y la eficiencia global del sistema (art. 28.b).

1Blog Bill Gates: https://www.gatesnotes.com/The-Age-of-AI-Has-Begun

Desafortunadamente, afirma −y esto para mí es crucial− las leyes van muy por detrás de lo que se está desarrollando y todavía tardarán de 10 a 15 años en llegar. “Estamos en un tiempo peligroso”, afirma.

3. Sistemas de IA de riesgo medio/bajo Estos sistemas únicamente estarían sometidos a un conjunto de normas de transparencia dirigidas a garantizar que su funcionamiento y características son conocidos por los usuarios, así como las implicaciones inherentes al empleo de estos sistemas.

3. Sistemas de IA de riesgo medio/bajo. Sistemas que no suponen un alto riesgo para los derechos y libertades. Incluyen determinadas tecnologías de menor sofisticación o capacidad de intrusión, tales como asistentes virtuales como chatbots.

1. Sistemas de IA prohibidos. Se recoge una serie de sistemas de IA, listados de forma tasada y periódicamente revisados, cuyo uso estaría prohibido por implicar un riesgo inadmisible para la seguridad, la vida y los derechos fundamentales. Dicho listado incluye sistemas tales como aquellos capaces de manipular el comportamiento humano, predecir información respecto a colectivos o grupos para identificar sus vulnerabilidades o circunstancias especiales, o aquellos que impliquen la identificación biométrica o la videovigilancia masiva en directo por parte de las autoridades en espacios públicos. Respecto a estos últimos, solo se permiten para el cumplimiento de la ley, bajo autorización judicial o administrativa. No obstante, esta autorización puede ser solicitada con posterioridad a su implementación en casos de “extrema urgencia” (tema muy debatido).

1. Sistemas de IA prohibidos. Estos sistemas implican de partida un riesgo inadmisible. No obstante, y, en particular, los consistentes en sistemas de identificación biométrica en remoto y en tiempo real en espacios públicos, se permitirían excepcionalmente para el cumplimiento de la ley y, en este caso, bajo autorización judicial o administrativa. Dicha autorización podría ser solicitada con posterioridad a su implementación en casos de “extrema urgencia” (veremos cómo queda esto).

Los legisladores deben pensar en cómo implementar esas leyes tan rápido como sea humanamente posible para proteger a las personas de un daño potencial.

2. Sistemas de IA de alto riesgo Estos sistemas de IA podrían permitirse siempre y cuando sean sometidos a una evaluación de conformidad y gestión del riesgo que suponen durante toda su vida útil. Cada operador de la cadena de valor estaría sometido a una serie de obligaciones específicas. Estas obligaciones comprenderían, por ejemplo:

El 22 de mayo tuvo una reunión privada en Moncloa con el presidente del Gobierno, donde se abordaron temas como la próxima votación en el Parlamento europeo del Proyecto de Reglamento de IA y la apertura en abril por la AEPD de una investigación sobre ChatGPT. Su visita concluyó con un encuentro con empresarios en la IE University, donde afirmó: “Debemos tener el mismo cuidado que con las armas nucleares… Las consecuencias podrían ser catastróficas a nivel mundial”. Concluyó su gira europea el 1 de junio, con una reunión de trabajo sin medios de comunicación, con la presidenta de la Comisión Europea, Ursula von der Leyen.

4. Resto de sistemas de IA. Estos últimos, en principio, no estarían sujetos a ninguna obligación en particular, pudiendo los agentes de la cadena elegir si desean adherirse a sistemas voluntarios de cumplimiento. Por consiguiente, estos sistemas quedarían, en principio, fuera del ámbito de aplicación del reglamento.

4. Resto de sistemas de IA De mantenerse la redacción propuesta, estos sistemas estarían sujetos a sistemas voluntarios de autorregulación, como la adhesión a códigos de conducta voluntarios. Esta propuesta de dejar abierta la regulación de los sistemas comprendidos en esta categoría está siendo objeto de discrepancia por parte de sectores que abogan por una mayor regulación, incluso en el caso de sistemas de menor sofisticación y que, actualmente, representan el gran bloque de sistemas existentes en el mercado.

2. Sistemas de IA de alto riesgo. Se listan otros sistemas de IA que, si bien no están prohibidos, suponen un “alto riesgo” para los derechos y libertades de los individuos y, por consiguiente, deben estar sujetos a ciertas obligaciones reforzadas que garanticen su uso legal, ético, robusto y seguro. Este listado también está tasado y está sujeto a revisión periódica en un futuro para adaptarlo a las nuevas tecnologías. Los sistemas comprendidos en esta categoría incluyen componentes de seguridad aplicables a sectores regulados o infraestructuras críticas, tales como el transporte aéreo, vigilancia de vehículos a motor, transporte ferroviario, etc. También se incluirían sistemas de identificación y categorización biométrica, selección de personal, control de fronteras o sistemas dirigidos a verificar el cumplimiento de la ley o evaluación de la situación crediticia de las personas, entre otros.