Artículos académicos

The EU AI Act: A pioneering effort to regulate frontier AI?

Abstract

The emergence of increasingly capable artificial intelligence (AI) systems has raised concerns about the potential extreme risks associated with them. The issue has drawn substantial attention in academic literature and compelled legislators of regulatory frameworks like the European Union AI Act (AIA) to readapt them to the new paradigm. This paper examines whether the European Parliament’s draft of the AIA constitutes an appropriate approach to address the risks derived from frontier models. In particular, we discuss whether the AIA reflects the policy needs diagnosed by recent literature and determine if the requirements falling on providers of foundation models are appropriate, sufficient, and durable. We find that the provisions are generally adequate, but insufficiently defined in some areas and lacking in others. Finally, the AIA is characterized as an evolving framework whose durability will depend on the institutions’ ability to adapt to future progress.

Resumen

La aparición de sistemas de inteligencia artificial (IA) cada vez más capaces ha generado preocupación sobre los posibles riesgos extremos asociados con ellos. La cuestión ha atraído una atención sustancial en la literatura académica y ha obligado a los legisladores de marcos regulatorios como el Reglamento de IA de la Unión Europea (RIA) a readaptarlos al nuevo paradigma. Este artículo examina si el borrador del RIA del Parlamento Europeo constituye un enfoque apropiado para abordar los riesgos derivados de los modelos punteros de IA. En particular, discutimos si el RIA refleja las necesidades de políticas diagnosticadas por la literatura reciente y determinamos si los requisitos que recaen sobre los proveedores de modelos fundacionales son apropiados, suficientes y duraderos. Encontramos que las disposiciones son en general adecuadas, pero insuficientemente definidas en algunas áreas e inexistentes en otras. Finalmente, el RIA se caracteriza por ser un marco en evolución cuya durabilidad dependerá de la capacidad de las instituciones para adaptarse al progreso futuro.Keywords: Artificial Intelligence (AI), frontier models, regulation, governance, European Union (EU)

Palabras clave: Inteligencia Artificial (IA), modelos punteros, regulación, gobernanza, Unión Europea (UE)

Bas, G., Salinas, C., Tinoco, R., & Sevilla, J. (2024). The EU AI Act: A pioneering effort to regulate frontier AI?. Inteligencia Artificial, 27(73), 55–64. https://doi.org/10.4114/intartif.vol27iss73pp55-64

Revisión sistemática de taxonomías de riesgos asociados a la Inteligencia Artificial

Resumen

Este artículo realiza una revisión sistemática de treinta y seis taxonomías de riesgos asociados a la Inteligencia Artificial (IA) que se han realizado desde el 2010 hasta la fecha, utilizando como metodología el protocolo Preferred Reporting Items for Systematic Reviews and Meta-Analyses (PRISMA). El estudio se basa en la importancia de estas para estructurar la investigación de los riesgos y para distinguir y definir amenazas. Ello permite identificar las cuestiones que generan mayor preocupación y, por lo tanto, requieren mejor gobernanza. La investigación permite extraer tres conclusiones. En primer lugar, se observa que la mayoría de los estudios se centran en amenazas como la privacidad y la desinformación, posiblemente debido a su concreción y evidencia empírica existente. Por el contrario, amenazas como los ciberataques y el desarrollo de tecnologías estratégicas son menos citadas, a pesar de su creciente relevancia. En segundo lugar, encontramos que los artículos enfocados en el origen del riesgo tienden a considerar más frecuentemente riesgos extremos en comparación con los trabajos que abordan las consecuencias. Esto sugiere que la literatura ha sabido identificar las potenciales causas de una catástrofe, pero no las formas concretas en las que esta se puede materializar en la práctica. Finalmente, existe una cierta división entre aquellos artículos que tratan daños tangibles presentes y aquellos que cubren daños potenciales futuros. No obstante, varias amenazas se tratan en la mayoría de los artículos de todo el espectro indicando que existen puntos de unión entre clústeres.

Palabras clave: Inteligencia artificial, Riesgo, Amenaza, Daño, Perjuicio, Taxonomía.

Bas Graells, G.; Tinoco Devia, R.; Salinas Leyva, C. y Sevilla Molina, J. (2024). Revisión sistemática de taxonomías de riesgos asociados a la Inteligencia Artificial. Analecta Política, 14(26), 1-25. doi: http://dx.doi.org/10.18566/apolit.v14n26.a08

Soluciones alimentarias resilientes para evitar la hambruna masiva durante un invierno nuclear en Argentina

Resumen

Una guerra nuclear, una erupción volcánica, o el impacto de un asteroide o cometa pueden reducir la cantidad de luz solar que alcanza la superficie terrestre, de la que depende el sistema alimentario global. Los rendimientos agrícolas caerían debido a la disminución de temperaturas y precipitaciones, lo que se define como un Escenario de Reducción Abrupta de la Luz Solar (ERALS). Argentina podría tener un papel clave en caso de que esto ocurriese. Aquí se se modelizan las intervenciones que permitirían prevenir la hambruna en Argentina e incluso en toda América Latina, incluyendo: redirección de alimentos usados como materias primas en la ganadería y producción de biocombustibles, racionamiento, relocalización de cultivos, despliegue de invernaderos simples y cultivo de algas, entre otras. Si no se implementasen adaptaciones adecuadas, la producción bruta podría caer al 30% del nivel actual, resultando insuficiente para la población Argentina. Afortunadamente, los resultados indican que incluso en un escenario de 150 Tg, las adaptaciones permitirían aumentar la producción neta desde una situación de hambruna nacional (1500 kcal/día/persona) hasta una producción equivalente a entre 3 y 6 veces la cantidad necesaria para la población Argentina (7800 - 14000 kcal/día/persona).

Palabras clave: Riesgo catastrófico global; Alimentos resilientes; Seguridad alimentaria; ERALS; Invierno nuclear