Hacia una normativa sobre la inteligencia
artificial (ia): consideraciones clave y
regulaciones internacionales

Olda Bustillos Ortega

obustillos@uia.ac.cr

http://orcid.org/0000-0003-2822-3428

Escuela de Ingeniería Informática, Universidad Internacional de las Américas, San José, Costa Rica

Jorge Murillo Gamboa

jmurillo@uia.ac.cr

http://orcid.org/0000-0001-5548-8283

Escuela de Ingeniería Informática, Universidad Internacional de las Américas, San José, Costa Rica

Olman Núñez Peralta

onunez@uia.ac.cr

http://orcid.org/0000-0001-6780-022X

Escuela de Ingeniería Informática, Universidad Internacional de las Américas, San José, Costa Rica

Fabián Rodríguez Sibaja

frodriguezs@uia.ac.cr

http://orcid.org/0009-0008-3276-9865

Escuela de Ingeniería Informática, Universidad Internacional de las Américas, San José, Costa Rica

Recibido: 13 de junio del 2024 / Aceptado: 21 de setiembre del 2024

doi: https://doi.org/10.26439/interfases2024.n020.7178

RESUMEN. La inteligencia artificial (IA) es una tecnología disruptiva que tiene un impacto significativo en diversos aspectos de la sociedad y la economía. Su rápido desarrollo ha generado la necesidad urgente de definir y establecer regulaciones que aborden los desafíos éticos, sociales y económicos que conlleva su adopción. La falta de una regulación adecuada trae consigo el riesgo de discriminación y sesgos en la toma de decisiones basadas en IA, lo que podría socavar la confianza pública en esta tecnología. Este artículo tiene como objetivo identificar los elementos clave necesarios que sirvan de base para la elaboración de una normativa efectiva de IA. Se toman en cuenta las regulaciones internacionales de la Unión Europea, los Estados Unidos, así como las iniciativas de organismos internacionales como la Unesco, la OCDE y la Comisión Económica para América Latina (Cepal) con su Índice Latinoamericano de Inteligencia Artificial (ILIA). Además, se presenta el caso específico de Costa Rica como ejemplo de formulación de una estrategia de inteligencia artificial. Se proponen lineamientos para una normativa coherente y efectiva de IA que promueva la cooperación y la armonización de las regulaciones. Estas pautas se ofrecen como guía para regular las herramientas y aplicaciones de IA, así como para adoptarla y usarla de manera responsable en beneficio de la sociedad, apoyada en la cooperación, consensos y acuerdos entre organizaciones y países.

PALABRAS CLAVE: artificial / inteligencia / normativa / regulaciones

TOWARDS A REGULATION ON ARTIFICIAL INTELLIGENCE (AI): KEY CONSIDERATIONS AND INTERNATIONAL REGULATIONS

ABSTRACT. Artificial Intelligence (AI) is a disruptive technology that has a significant impact on various aspects of society and the economy. Its rapid development has generated an urgent need to define and establish regulations that address the ethical, social and economic challenges that come with its adoption. The lack of adequate regulation carries the risk of discrimination and bias in AI-based decision-making, which could undermine public trust in this technology. This article aims to identify the key elements necessary to serve as a basis for the development of effective AI regulations. International regulations from the European Union, the United States, as well as initiatives from international organizations such as UNESCO, the OECD and the Economic Commission for Latin America (ECLAC) with its ILIA AI Strategy Index are taken into account. In addition, the specific case of Costa Rica is presented as an example of the formulation of an Artificial Intelligence Strategy. Guidelines are proposed for coherent and effective AI regulations that promote cooperation and harmonization of regulations. These guidelines are offered as a guide to regulate AI tools and applications, as well as to adopt and use them responsibly for the benefit of society supported by cooperation, consensus and agreements between organizations and countries.

KEYWORDS: artificial / intelligence / normative / regulations

1. INTRODUCCIÓN

Importancia de regular la IA en la sociedad moderna

La inteligencia artificial (IA) representa una de las fuerzas más dinámicas y transformadoras de nuestra era, con interacciones sociales, económicas, tecnológicas. A medida que los sistemas de IA se vuelven más avanzados y autónomos, pueden ayudar a reducir las ineficiencias burocráticas y mejorar la participación ciudadana, pero, a su vez, también introducen desafíos relacionados con la ética, la transparencia y la rendición de cuentas (Khairo & Busroh, 2023). Es una de las tecnologías que ha crecido de forma exponencial y sobre la que los gobiernos tienen los ojos puestos. De acuerdo con Nitzberg y Zysman (2022), se plantea la gobernanza de la inteligencia artificial (IA) como una serie de desafíos entrelazados, comparable a la energía del vapor o la electricidad: no puede gobernarse de forma aislada, sino en el contexto de una caja de herramientas de tecnología digital más amplia. Se hace necesario establecer prioridades nacionales sobre cómo aprovechar los beneficios y, al mismo tiempo, gestionar sus riesgos sociales y económicos; y todo esto en constante evolución.

De acuerdo con Burt (2021), las regulaciones de IA están evolucionando rápidamente y organismos gubernamentales —incluyendo la Comisión Federal de Comercio de Estados Unidos y la Comisión Europea— han anunciado directrices o propuestas para regular la inteligencia artificial. En lugar de esperar a que se aclaren las leyes y regulaciones, las empresas y organizaciones pueden comenzar a tomar medidas desde ahora para prepararse y adoptar estándares y mejores prácticas relacionadas con los derechos fundamentales de las personas y los futuros sistemas de IA, lo que les permitirá ser reconocidas como confiables (Katulić, 2020).

Áreas a regular en la IA

Baiocchi y Leicht (2023) indican que, en 2020, el secretario general de la ONU, António Guterres, presentó una hoja de ruta para la cooperación digital. Esta hoja de ruta se centró en cómo la comunidad internacional puede aprovechar las oportunidades de las tecnologías digitales, al tiempo que enfrenta sus desafíos. En 2021, la Unesco elaboró el primer marco normativo global, conocido como la Recomendación sobre la ética de la inteligencia artificial, que fue aprobado y adoptado por los 193 Estados miembros. Este estándar global para la IA se fundamenta en valores y principios éticos clave, aplicables a diversas áreas políticas que están siendo transformadas por la IA, como la gobernanza de datos, el medio ambiente, la igualdad de género, la economía y el trabajo, la cultura, la educación y la investigación (Baiocchi & Leicht, 2023).

En febrero del 2023, Costa Rica, siguiendo la recomendación de la Unesco, abordó la implementación de políticas mediante un evento denominado Hacia una Estrategia de Inteligencia Artificial en Costa Rica, coordinado por el Ministerio de Ciencia, Innovación, Tecnología y Telecomunicaciones (MICITT) y con apoyo de la Unesco y el Centro Nacional de Alta Tecnología (Cenat). Juntos, propusieron trazar la hoja de ruta a través de procesos de vinculación y transformación social y productiva, aunados al uso intensivo del conocimiento y al acceso democrático a los beneficios de la ciencia, la innovación y la tecnología, con miras a generar el cambio que el país necesita (Ministerio de Ciencia, Innovación, Tecnología y Telecomunicaciones [MICITT], 2023b).

Vanessa Gibson señala que, solo en Costa Rica, cerca del 75 % de las empresas ha iniciado los primeros pasos para implementar la inteligencia artificial en sus procesos. Junto al machine learning, la IA es una de las cinco megatendencias en los sectores de mayor atracción de inversión extranjera directa (Dirección de Prensa y Relaciones Públicas [DPRP], 2022).

En junio del 2024, la Unesco reunió a expertos internacionales en IA para llevar a cabo el Diálogo Político sobre la Gobernanza de la IA, en el cual se debatieron soluciones concretas y éticas para un ecosistema de IA. Gabriela Ramos, de la red AI Ethics Experts Without Borders, aportó recomendaciones específicas sobre la gobernanza de la IA, basadas en evaluaciones llevadas a cabo en más de cincuenta países. En suma, se propone establecer un diálogo político (para reunir y compartir experiencias, conocimientos y buenas prácticas entre países), enfocado en la gobernanza de la inteligencia artificial; es necesario abordar las cuestiones apremiantes, los retos asociados y fomentar el desarrollo de una IA ética que respete y promueva los derechos humanos, la dignidad humana y las libertades fundamentales (Unesco, 2024).

Riesgos sobre una regulación en la IA

La IA puede ser una herramienta poderosa para el bien, pero también tiene el potencial de ser utilizada de manera perjudicial. Puede ocasionar discriminación y sesgos a medida que se integra en una amplia gama de aplicaciones, desde la atención médica hasta la toma de decisiones financieras. Los aspectos técnicos de las herramientas que se están desarrollando y promoviendo tienen importantes y directas consecuencias sociales y políticas. Se debe considerar a la IA como algo que existe en sí mismo, más que como un conjunto de tecnologías cognitivas, por lo que una regulación al respecto tendría como objetivo ayudar a que los gobernantes y profesionales de la IA aborden no solo los aspectos técnicos, sino también los riesgos de las consecuencias sociales y políticas (Dumouchel, 2023). De acuerdo con Schuett (2023), en lugar de utilizar el término IA, los responsables de generar las políticas deberían centrarse en establecer lineamientos sobre los riesgos específicos que quieren reducir. Para el cumplimiento legal, es mejor definir las principales fuentes de riesgos relevantes, como: técnicos (aprendizaje por refuerzo), aplicaciones (reconocimiento facial) y capacidades (interactuar físicamente con el entorno).

Según Pownall (2019), en el aspecto meramente técnico de la regulación sobre la IA existe el riesgo de discriminación algorítmica, incluyendo sesgos en la toma de decisiones y violaciones de la privacidad. Por ello, propone considerar los siguientes riesgos:

Desafíos y ética sobre la regulación de la IA

De acuerdo con Truby et al. (2020), existe un consenso internacional sobre los principios de la gobernanza de la IA, pero los legisladores no han logrado traducir esos principios en regulaciones para el sector financiero. Por tal motivo, consideran que la mejor manera consiste en un enfoque regulatorio proactivo, antes de que ocurra algún daño.

Otro desafío se relaciona con los factores que influyen en los ciudadanos para utilizar robots. Al respecto, Chatterjee (2020) revela un estudio donde plantea que el uso de robots aumentaría apreciablemente si el Gobierno impusiera un estricto control de inteligencia artificial (IA) y que el uso de estos robots mejoraría la calidad de vida de los ciudadanos.

El sector de salud es otro ejemplo de desafío, al considerar la utilización de la inteligencia artificial (IA) en la atención de pacientes. Konttila y Väyrynen (2022), quienes llevaron a cabo un estudio en el sector sanitario finlandés, identificaron los desafíos que presenta una regulación de la tecnología basada en IA (AI-based healthcare technology por sus siglas en inglés, abreviado AIHT) y señalaron la ambigüedad de tener varias regulaciones sobre el AIHT y, además, la ley europea de IA, todo lo cual podría obstaculizar la innovación en este sector e, incluso, desacelerar su desarrollo.

De acuerdo con Cain y Webster (2022), el software de inteligencia artificial se ha convertido cada vez más en parte de la economía hotelera y turística, y la automatización de la industria de servicios ha sido una evolución natural. Sin embargo, estas tecnologías se implementan en una industria que tiene un alto grado de regulación y una necesidad de rentabilidad y satisfacción del cliente. Por lo tanto, la intención de las políticas de regulación y las instituciones que las procesan tendrán el desafío de lograr un impacto masivo en la competitividad de este sector.

Con respecto a la ética en los sistemas de inteligencia artificial (IA), ha emergido como un tema central en la discusión académica y laboral. Sin embargo, hasta la fecha no se ha alcanzado un consenso claro sobre la configuración de un marco ético para la IA. Esta falta de acuerdo se debe a la diversidad de interpretaciones y percepciones asociadas con las variaciones culturales y los diferentes contextos de aplicación de estas tecnologías (Ferreira Beni et al., 2023).

Ferreira Beni et al. añaden una lista de posibles problemas sociales y éticos asociados a la IA:

De acuerdo con Martínez (2024), la IA está presente en la automatización de tareas y la creación de sistemas de recomendación, e incluso tiene influencia en los procesos creativos y la toma de decisiones. Sin embargo, existe la suposición de que los sistemas basados en inteligencia artificial (IA) son inherentemente neutrales; pero considerarlos así no solo es incorrecto, sino que, además, puede tener consecuencias peligrosas en la toma de decisiones y en la formulación de políticas. Han surgido una serie de propuestas sobre cómo lograr una IA ética y confiable, tanto en el sector privado como en entidades gubernamentales en varias partes del mundo. Se enumera, a continuación, una serie de valores y principios éticos:

Tabla 1

Áreas políticas sobre regulaciones en IA según la Unesco

Dominios IA

Elementos esenciales de una normativa sobre la IA

Áreas políticas sobre la IA según la Unesco

a) Marco legal y regulatorio

Establecimiento de un marco legal sólido que defina claramente las responsabilidades, requisitos y procedimientos relacionados con la IA.

Estándar global IA para el trabajo y la cultura.

b) Ética y principios rectores

Incorporación de principios éticos, como la transparencia, la equidad, la responsabilidad y la no discriminación.

Con valores y principios éticos clave para su desarrollo y uso en igualdad de género. Fomentar el desarrollo de una IA ética que, desde su concepción, respete y promueva los derechos humanos, la dignidad humana y las libertades fundamentales

c) Gobernanza y supervisión

Creación de una estructura de gobernanza que incluya un organismo regulador encargado de supervisar la aplicación de regulaciones, incorporando la aplicación de índices de IA.

Amplia gama de áreas políticas como gobernanza de datos. Supervisión y decisión humanas

d) Protección de datos y privacidad

Establecimiento de directrices claras sobre el manejo de datos personales y garantizar la privacidad en los sistemas IA.

Acceso seguro a los beneficios de la IA.

e) Evaluación de riesgos y seguridad

Definición de procesos para evaluar y gestionar los riesgos asociados con la IA, especialmente en aplicaciones críticas.

Diálogos políticos entre países para compartir experiencias, conocimientos y buenas prácticas.

f) Auditorías y conformidad

Implementación de auditorías periódicas para evaluar el cumplimiento de las regulaciones y la calidad de los sistemas.

Equidad y no discriminación.
La IA no debe sistemáticamente privilegiar a un grupo arbitrario de usuarios sobre otros.

g) Educación y formación

Promoción de la educación y formación en el uso seguro y ético de la IA, tanto para el Gobierno, el sector privado, así como en la población de estudiantes y sociedad en general.

Uso intensivo del conocimiento en automatización de tareas, creación de sistemas de recomendación y diseño de herramientas creativas.

h) Transparencia y responsabilidad

Transparencia en decisiones y funcionamiento de sistemas de IA y definición de responsabilidades en caso de incidentes.

Transparencia en la construcción y entrega de resultados, explicando cómo se llegó a ese resultado.
La responsabilidad ética y jurídica y rendición de cuentas corresponde a las personas físicas o entidades jurídicas y no a los sistemas de IA.

i) Impacto social y económico

Evaluación del impacto de la IA en el empleo, la economía, la sociedad en general, y desarrollo de estrategias de mitigación.

Medioambiente, industria, diferentes sectores de la economía y la academia.
Vinculación y transformación social y productiva.

j) Cooperación internacional

Colaboración e intercambio de información con países y organismos internacionales para abordar los desafíos de IA.

Acceso democrático a los beneficios de la ciencia, la innovación y la tecnología de IA.

2. OBJETIVOS DE LA INVESTIGACIÓN

Elaborar una serie de elementos y consideraciones clave que conformen guías para una normativa sobre la inteligencia artificial (IA), a partir del análisis de normativas, leyes y directrices internacionales, y la evaluación y comparación de las regulaciones existentes a nivel global, con base en los enfoques de la Unión Europea, Estados Unidos, República Popular China y organizaciones internacionales como la Unesco, la OCDE, Cepal y el Banco Interamericano de Desarrollo (BID).

Dentro de los objetivos específicos de la investigación están los siguientes:

3. METODOLOGÍA

Para identificar las normativas sobre IA, en las etapas de revisión documental y revisión de literatura se realizó una búsqueda, a nivel nacional e internacional, de temas relacionados con regulaciones y legislación sobre la inteligencia artificial.

Revisión documental

Se investigó sobre el uso y desarrollo de la inteligencia artificial (IA) de parte de organismos internacionales como la Comisión Económica para América Latina (Cepal) y su índice ILIA; el BID y su programa fAIr LAC, la Unión Europea, los Estados Unidos de América y la República Popular China. Para el caso de Costa Rica, se consultaron comunicados y publicaciones del Ministerio de Ciencia, Innovación, Tecnología y Telecomunicaciones (MICITT) del Ministerio de Educación Pública (MEP) y de entidades no gubernamentales, como la Coalición de Iniciativas para el Desarrollo (CINDE), la Cámara de Tecnologías de Información y Comunicaciones (CAMTIC) y la corporación multinacional INTEL.

Revisión de literatura

Se realizó una revisión de literatura consultando bases de datos tales como Google Académica, ProQuest Digital Disertation and Theses e IEEE Xplore. Con la revisión documental y de literatura se pudieron extraer los elementos clave y completar tablas, cumpliendo así con los objetivos específicos, y elaborar otras para guiar la propuesta de una normativa de IA.

4. REGULACIONES Y NORMATIVAS DE PAÍSES SOBRE LA IA

IA en los Estados Unidos de América

Cuéllar et al. (2024) realizaron una encuesta a más de mil gerentes en los Estados Unidos sobre el impacto de posibles regulaciones en la inteligencia artificial, incluyendo cuestiones éticas y sus intenciones de adoptar tecnologías de este tipo. Descubrieron que este tema aumenta la percepción de los gerentes sobre la importancia de la seguridad, privacidad, prejuicios, discriminación y transparencia relacionadas con la IA, y que ello requiere de personas con cualidades humanas como empatía, juicio y justicia. También se incrementa la intención de los gerentes de gastar en el desarrollo de una estrategia de IA, capacitar al personal o adquirir paquetes de software basados en esta tecnología.

David Heiner, asesor de políticas estratégicas de Microsoft y representante de Partnership on AI, hace hincapié en que la IA no debería estar controlada por un pequeño número de empresas. Señaló también que Microsoft estaba haciendo que su tecnología IA de reconocimiento de imágenes estuviera ampliamente disponible para el usuario final y exponiendo las interfaces de programación para que cualquiera pueda desarrollar nuevas aplicaciones (OECD, 2018).

IA en la Unión Europea

Benedetta Arese Lucini (Italia) presentó, en septiembre de 2017, en el marco de la Conferencia Ministerial de Industria y TIC del G7 celebrada en Turín, el enfoque de la IA centrado en lo humano. Los países del G7 reconocieron los enormes beneficios potenciales de la IA, pero también su impacto incierto en la sociedad y la economía.

Las directrices planteadas por Arese se agrupan en cuatro áreas:

i) Comprender el impacto cultural, ético, regulatorio y legal de la IA

ii) Explorar el impacto de la IA, especialmente en el crecimiento, la creación de empleo, la rendición de cuentas, la privacidad y la seguridad

iii) Adoptar un enfoque de múltiples partes interesadas, como forma eficaz de abordar cuestiones políticas y regulatorias

iv) Trabajar para lograr un entendimiento común sobre cómo beneficiarse del potencial de la IA para una sociedad equitativa, subrayando al mismo tiempo que la regulación no debe obstaculizar el desarrollo de la tecnología y la industria (OECD, 2018).

Una de las iniciativas internacionales más relevantes surgió en 2023, cuando el Parlamento Europeo aprobó el AI Act (AIA), el texto de compromiso de la Ley de IA de la Unión Europea. De acuerdo con Tallberg et al. (2024), se realizaron consultas públicas sobre esta regulación europea, en las que los actores empresariales expresaron preocupaciones sobre la IA, apoyando la regulación y mostrando menos preocupación por las desventajas de la IA que otros actores no estatales. Los resultados mostraron que estas diferencias son más pronunciadas en países con sectores comerciales de IA más fuertes (Tallberg et al., 2024; Stahl et al., 2022). Según el AIA el nivel de riesgo de la IA en la educación, el empleo, la migración, la justicia y la aplicación de la ley se considera de alto riesgo o riesgo significativo y, por tanto, requiere de una evaluación de la gravedad, intensidad, probabilidad, duración e impactos potenciales de dicho riesgo. Este enfoque es particularmente relevante en el uso de la IA para la identificación biométrica remota en tiempo real, ya que puede afectar derechos y libertades fundamentales, como la privacidad y la libertad de reunión, e implicar resultados sesgados o efectos discriminatorios en función de edad, etnia, raza, sexo o discapacidades.

Al respecto, Novelli et al. (2024) proponen hacer una clasificación de riesgo dividida en cuatro categorías: inaceptable, alto, limitado y mínimo. Adicionalmente, se exige una evaluación del impacto y un plan de mitigación de riesgos (AIA, Recital 58a). Comparan esta clasificación con el cambio climático, pues ambos fenómenos comparten riesgos similares, con magnitudes impredecibles y una complejidad creciente por la interacción de múltiples factores (Novelli et al., 2024; Gstrein, 2022).

IA en la República Popular China

Franks et al. (2024), en su reporte sobre regulaciones de IA en la República Popular China indican que este país se ha adelantado a otras jurisdicciones de la inteligencia artificial, promulgando un conjunto de regulaciones sobre los riesgos asociados, estableciendo obligaciones integrales sobre el uso de IA generativa y sus algoritmos, protegiendo contra una dirección política incorrecta y la violación de la moral social. Además, se garantiza que el regulador tenga visibilidad de ciertos algoritmos al exigir la presentación de información relevante.

De acuerdo con Matt Sheehan (2023), China está a punto de implementar algunas de las regulaciones más tempranas y detalladas del mundo que rigen la IA. Se incluyen medidas sobre los algoritmos, así como nuevas reglas para las imágenes generadas sintéticamente y chatbots en la plataforma de ChatGPT.

Xiao Zhang, subdirectora del Centro de Información de la Red de Internet en China, durante la sesión número cinco sobre el panorama de las políticas de IA en la conferencia de la OECD en París, menciona que el país se encuentra actualmente en la tercera fase de Internet de las cosas (IoT) y se espera que la IA integre datos y sistemas en el futuro. Además, presentó (durante esta misma sesión número cinco) la Directriz sobre el desarrollo de la IA con un enfoque a largo plazo donde se apunta a que China sea el centro mundial de innovación en IA para el año 2030 (OECD, 2018).

Tabla 2

Enfoque de regulaciones sobre la IA según países (fuente: de los autores)

Dominios IA

Estados Unidos de América

Unión Europea

República Popular de China

a) Marco legal y regulatorio

La IA no debería estar controlada por un pequeño número de empresas

Ley de IA de la Unión Europea y Parlamento Europeo

Directriz sobre el desarrollo de la IA

b)Ética y principios rectores

Requiere personas con cualidades humanas como empatía, juicio y justicia

Directrices éticas de la Comisión Europea y Carta de derechos fundamentales

Proteger contra una dirección política incorrecta y la violación de la moral social

c) Gobernanza y supervisión

Adoptar un enfoque centrado en lo humano respecto de la IA

d) Protección de datos y privacidad

La importancia de la seguridad, privacidad, prejuicios, discriminación y transparencia relacionadas con la IA

Explorar aspectos positivos y controversiales sobre la privacidad.

Medidas sobre los algoritmos y reglas para imágenes generadas sintéticamente y chatbots en plataforma ChatGPT

e) Evaluación de riesgos y seguridad

Categorías de riesgo: inaceptable, alto, limitado y mínimo. Sistemas con riesgo significativo (alto) requieren de una evaluación de la gravedad, intensidad, con probabilidad, duración e impactos potenciales del riesgo

Visibilidad de ciertos algoritmos al exigir la presentación de información relevante

f) Auditorías y conformidad

Tecnología de IA de reconocimiento de imágenes están disponibles ampliamente

Diálogo entre múltiples partes interesadas para la rendición de cuentas

Obligaciones integrales sobre el uso de IA generativa y sus algoritmos

g) Educación y formación

Formar personas en IA con énfasis en la empatía, juicio y la justicia

Lograr un entendimiento común sobre cómo beneficiarse de todo el potencial de la IA para una sociedad equitativa

Inteligencia, investigación y desarrollo de IA

h) Transparencia y responsabilidad

Servicios para usuario final y exponiendo las interfaces de programación a los desarrolladores

Enfoque de múltiples partes interesadas, como forma eficaz de abordar cuestiones políticas y regulatorias

i) Impacto social y económico

La IA sobresale en: videos, voz, sonidos y en reconocimiento de imágenes

La regulación sobre IA no debe obstaculizar el desarrollo de la tecnología y la industria

Aplicaciones en áreas socioeconómicas con impacto de la IA en la sociedad

j) Cooperación internacional

Cualquiera puede desarrollar nuevas aplicaciones

Beneficios potenciales, impacto en la sociedad y en la economía

Enfoque a largo plazo que apunta a China como centro mundial de innovación en IA en 2030

5. REGULACIONES Y DIRECTRICES SOBRE LA IA DE ORGANISMOS INTERNACIONALES

Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (Unesco)

En 2020, António Guterres, secretario general de la ONU, presentó una hoja de ruta destinada a potenciar la colaboración en el ámbito de las tecnologías digitales. Al año siguiente, Allegra Baiocchi, coordinadora de la ONU en Costa Rica, y Alexander Leicht, director de la oficina multipaís de la Unesco, lanzaron el documento titulado Ética de la Inteligencia Artificial, que fue ratificado por los 193 Estados miembros de la organización. Este documento se basa en principios éticos esenciales para guiar el desarrollo y uso de la IA en áreas como la gobernanza de datos, la sostenibilidad ambiental, la igualdad de género y la economía, entre otros. Su propósito es establecer un marco que fomente la cooperación internacional y promueva el uso responsable de la tecnología, respetando los derechos humanos y asegurando un enfoque sostenible y pacífico (Baiocchi & Leicht, 2023).

Organización para la Cooperación y el Desarrollo Económico (OCDE)

Anne Carblanc, jefa de la División de Política de Economía Digital de la OCDE, presentó el panorama de políticas de IA, con iniciativas de los gobiernos, el sector privado, las comunidades de investigación, la sociedad civil y los sindicatos. El potencial de la IA permite aumentar la eficiencia y eficacia de sectores enteros, incluida la prestación de servicios públicos, la mejora en la educación, la seguridad pública, la salud y el equilibrio entre la vida laboral y personal. Los gobiernos, según Carblanc, deben planificar la inversión y el desarrollo de la IA. Adicionalmente, se han delineado políticas y programas para minimizar la perturbación económica y brindar un acceso más amplio a pequeñas y medianas empresas (PYME) e incorporar la IA en sus procesos productivos (OECD, 2018).

Comisión Económica para América Latina y el Caribe (Cepal)

El 4 de agosto de 2023, la Cepal llevó a cabo el evento IA para el Desarrollo Sostenible de América Latina en Santiago de Chile. Allí se presentó el primer Índice Latinoamericano de Inteligencia Artificial (ILIA). Según Soto Arriaza y Durán Rojas (2024), este índice proporcionará una visión regional para fomentar la creación de ecosistemas de desarrollo e innovación en IA, pues evalúa tres dimensiones: factores habilitantes, investigación y desarrollo, y gobernanza. El índice también ofrece un análisis detallado del estado de madurez de la IA en la región, abarcando aspectos como infraestructura, capital humano, disponibilidad de datos, regulaciones, áreas estratégicas y participación ciudadana. Además, mide la existencia de regulaciones en áreas como ciberseguridad, protección de datos y experimentación regulatoria, y posiciona a la IA como una herramienta valiosa para los latinoamericanos y una importante contribución global.

José Manuel Salazar-Xirinachs, secretario ejecutivo de la Cepal, durante el evento titulado IA para el desarrollo sostenible de América Latina de la Cepal en Santiago de Chile, el 11 de agosto de 2023, enfatizó la importancia de que “la inteligencia artificial se trabaje de manera explícita y deliberada en las políticas de desarrollo productivo de los países de la región y sus territorios” (Comisión Económica para América Latina y el Caribe [Cepal], 2023, p.1).

El 23 de septiembre del 2024 se llevó a cabo el lanzamiento de la segunda versión del Índice Latinoamericano de Inteligencia Artificial (ILIA), organizado por la Cepal y con la presencia de expositores de varios países que presentaron sus productos de investigación y mencionaron que, con respecto al uso de ILIA, se utilizan los siguientes principios de la IA (Cepal, 2024):

De acuerdo con Jorge Patiño, coordinador del ILIA en la Cepal, cada proyecto que se inicia tiene que ser beneficioso para la sociedad, tiene que ser justo y además seguro, al incorporar un diseño de privacidad y proveer un avance en las ciencias. La versión 2 de ILIA busca hacerse cargo del ecosistema que envuelve la normativa y regulación de la IA, subdividiendo la dimensión de gobernanza en tres subdimensiones: visión e institucionalidad, vinculación internacional y regulación. Asimismo, esta segunda versión añade nuevos subindicadores con caracterizaciones discretas. Así, por ejemplo, Visión e institucionalidad, del indicador Estrategia de IA, incluye: ética y gobernanza, infraestructura y tecnología, desarrollo de capacidades, datos, gobierno digital, industria y emprendimiento, investigación y desarrollo y cooperación regional e internacional.

Aplicando el índice ILIA, se logran obtener mediciones de los países en los siguientes aspectos:

1. Estrategia en IA: se mide la falta de estrategias de IA sistemáticas y actualizadas, así como la ausencia de una hoja de ruta para su uso (países a la deriva).

2. Orientación de las estrategias: mide la presencia de elementos críticos, de similitud en las estructuras, y mecanismos de evaluación y coordinación para cumplir objetivos nacionales de IA.

3. Espacios para construcción de estrategia: mide la escasez de procesos de participación ciudadana en la elaboración de la estrategia, la importancia de mejorar la formulación de políticas, y la oportunidad para aumentar los estándares de participación y legitimidad en la incorporación de personas en la construcción colectiva de una estrategia de IA.

4. Enfoque regulatorio: mide la falta de una posición común, la ausencia de un relato o propuesta regional para la regulación de la IA, y una oportunidad perdida para construir una posición regional sobre la normativa de la IA. La mayoría de los países están inspirados en la Unión Europea, pero hay fragmentación entre ellos y poca unificación para participar regionalmente.

5. Entornos sólidos, seguros y explicables: mide el índice de ciberseguridad con respecto a los ecosistemas maduros de IA en América Latina, la transparencia, explicabilidad y el enfoque utilizado en la rendición de cuentas y promoción del “no daño” en IA.

6. Sostenibilidad: mide las condiciones favorables para el acceso a energías limpias, el potencial para convertirse en carbono neutral y la necesidad de sensibilización y promoción para aprovechar el potencial de ser más verdes que los europeos.

Algunos panelistas en el evento de lanzamiento del ILIA 2 como Nicolás Schubert de Google, Chile, propuso que el rol de la IA debe mejorarse en mercados emergentes y superar lo que tenemos actualmente. Asevera que tiene más sentido regular los riesgos que la tecnología, por lo que se hace necesario generar marcos interoperables que permitan la tecnología transfronteriza. Y añade que la IA es tan importante que hay que regularla, pero de forma coordinada.

Lourdes Martínez de la Sociedad Mexicana de IA nos recuerda que ya teníamos muchos actores que habían puesto las primeras piedras y que el Gobierno no contemplaba la IA en la factura de datos. Este índice ILIA refleja la necesidad de tener una estrategia de IA responsable, la cual requiere leyes, pero además cumplir con las mejores prácticas.

Fabio Senne del Observatorio Brasileño de IA, agregó que el monitoreo es fundamental, así como la adopción de datos estadísticos para analizar tendencias y logros, aunque los procesos estadísticos sean costosos. Desde el 2019 Brasil realiza encuestas a nivel nacional y mide, así, como las empresas y el Gobierno están adoptando tecnologías basadas en IA. Ahora se busca profundizar esta medición para captar aspectos más sofisticados sobre la adopción de IA (cuánto es desarrollo propio y cuánto es en la compra de productos de mercado) y para medir principalmente cuánto aprendizaje interno se tiene hoy. Añadió Senne que en julio del 2024 se desarrolló en Brasil un plan con metas claras y presupuesto para los cinco ejes: infraestructura y desarrollo, capacitación en IA, la IA en servicios públicos, la innovación empresarial, y la gobernanza e innovación.

Iniciativa fAIr LAC del Banco Interamericano de Desarrollo (BID)

Galdón Clavell y Lorente Martínez de Argentina, con el apoyo del Laboratorio de Innovación del Banco Interamericano de Desarrollo y la iniciativa fAIr LAC del BID, presentaron la propuesta de un prospecto algorítmico como herramienta específica para solventar la complejidad técnica de los sistemas algorítmicos dentro del contexto de una normativa general. Un ejemplo concreto de aplicación de la guía son las aplicaciones de movilidad con el sistema de posicionamiento global (GPS, por sus siglas en inglés) para sugerir rutas eficientes en tiempo real, en las que este algoritmo utiliza un conjunto de datos sobre la movilidad de los vehículos en una localización específica y puede de esta manera recomendar la ruta más eficiente para el conductor, siguiendo parámetros definidos previamente de forma autónoma y automática.

Clavell y Lorente Martínez (2022) proponen aplicar ese documento guía (Prospecto algorítmico de IA) para describir el funcionamiento detallado del sistema IA, utilizando unos apartados descriptivos: número de registro, detalles del modelo, objetivo y uso intencionado, factores, métricas, datos de evaluación, datos de entrenamiento, análisis cuantitativo y consideraciones éticas. El instrumento propuesto deberá acompañarse de una guía de uso con definiciones clave, ejemplos y otras instrucciones que faciliten su comprensión y aplicación dentro de una normativa de IA (Galdón Clavell & Lorente Martínez, 2022).

Tabla 3

Enfoque de regulaciones sobre la IA según países (fuente: de los autores)

Dominios IA

Unesco

OCDE

Cepal

BID

a) Marco legal y regulatorio

Estándar global IA

Panorama de políticas de IA

Índice Latinoamericano de Inteligencia Artificial, versiones 1 y 2. Es mejor regular riesgos y no la tecnología

Prospecto algorítmico de IA, en el marco regulatorio laboral

b) Ética y principios rectores

Valores y principios éticos clave para su desarrollo y uso

Mejorar el equilibrio entre la vida laboral y personal

La IA debe trabajarse de manera explícita en el marco de las políticas de desarrollo productivo de los países de la región y de sus territorios

Solventar la transparencia técnica de algoritmos dentro del contexto de una normativa general

c) Gobernanza y supervisión

Gobernanza de datos de los países miembros

Iniciativas de los gobiernos, sector privado, comunidades de investigación y sociedad civil

Reflexión, visión estratégica, regulación, coordinación regional y multilateral. Ausencia de una hoja de ruta y de estrategias sistemáticas y actualizadas para determinar nivel de madurez en la estrategia de IA de cada país

Prospecto algorítmico con definiciones clave, ejemplos e instrucciones dentro de una normativa IA

d) Protección de datos y privacidad

Recolección y disponibilidad de datos y minimizar potenciales amenazas

Contextos de desarrollo e implementación de sistemas automatizados IA

e) Evaluación de riesgos y seguridad

Mejorar el bienestar de las personas en áreas de la seguridad pública

Aprovechar oportunidades y minimizar sus potenciales amenazas en infraestructura, capital humano

Algoritmos considerados como de alto riesgo

f) Auditorías y conformidad

Visión e institucionalidad, vinculación internacional y regulación. Índice IA con dimensiones, subdimensiones, indicadores y subindicadores

Prospecto algorítmico de IA con apartados descriptivos sobre su funcionamiento

g) Educación y formación

Cultura, la educación y la investigación. Adelantar diagnósticos médicos y ayudar en la investigación científica

Mejorar el bienestar de las personas en áreas de la educación y la salud

Formación de capital humano avanzado con la participación de personas con experiencias diversas

h) Transparencia y responsabilidad

Data sets relevantes sin datos personales y cuestionarios se pueden compartir

Guía de uso con definiciones clave de algoritmos IA

i) Impacto social y económico

Usar la tecnología de manera respetuosa con los derechos humanos, de forma segura y sostenible

Aumentar la eficiencia y eficacia de sectores, incluida la prestación de servicios públicos

En áreas estratégicas y con participación ciudadana de sectores activos y rezagados

Impactos en el trabajo, salud, seguridad, educación, justicia criminal y servicios sociales

j) Cooperación internacional

Fortalecer el desarrollo y uso respetuoso con los derechos humanos, de manera segura y sostenible, y promover la paz

Necesidad de generar marcos interoperables y transfronterizos. Compartir estadísticas y espacios para construcción colectiva de políticas de IA

Desarrollo e implementación de sistemas automatizados

6. ESTUDIO DE CASO: LA IA EN COSTA RICA

En febrero de 2023, el gobierno de Costa Rica comenzó a desarrollar una base para su Estrategia Nacional de IA. Los objetivos y pilares propuestos están adaptados al contexto local y buscan orientar la construcción de una estrategia sólida, con un enfoque ético y responsable en el uso de la inteligencia artificial.

Paula Bogantes, jerarca del Ministerio de Ciencia y Tecnología MICITT, manifiesta:

Hemos apostado por grandes retos globales en una sociedad y economía basada en el conocimiento y gracias al apoyo de los distintos actores desde el Sistema Nacional de Ciencia, Tecnología e Innovación se han generado diversas iniciativas, como el Plan Nacional de Ciencia, Tecnología e Innovación, incorporando las tecnologías digitales y las tecnologías emergentes como la inteligencia artificial. (MICITT, 2023b, p.1)

Con respecto a la formación en IA, el 8 de marzo del 2022 el Consejo Superior de Educación de Costa Rica aprobó el primer programa de estudios sobre inteligencia artificial dentro de la Educación Técnica Profesional (ETP). Estos colegios constituyen un pilar en la preparación de técnicos calificados para promover el desarrollo social y económico del país. La IA entraría a formar parte del repertorio de especialidades de estos colegios, desarrollando conocimientos, habilidades, destrezas, valores y capacidades actitudinales que faculten la formación del perfil de recurso humano que demanda el sector productivo, y la incorporación en puestos de trabajo sobre automatización de procesos y aprendizaje automático (Ministerio de Educación Pública de Costa Rica [MEP], 2008, Dirección de Educación Técnica y Capacidades Emprendedoras[DETCE], 2022; Picado, 2023).

Anna Katharina Müller, ministra de Educación Pública señaló al respecto:

Esta nueva especialidad técnica es respuesta a la demanda de nuevos perfiles profesionales que requiere el país y a las nuevas tendencias que hoy caracterizan el mercado de trabajo. La inteligencia artificial representa para Costa Rica y, en especial para nuestros jóvenes, una oportunidad para incrementar su competitividad, promover la innovación y la empleabilidad (DETCE, 2022, p. 1).

En noviembre del 2022, el Ministerio de Educación Pública y la empresa multinacional Intel de Costa Rica firmaron un convenio para apoyar y habilitar la especialidad de inteligencia artificial en los Colegios Técnico Profesionales, a fin de que la comunidad estudiantil aprenda sobre las implicaciones éticas y legales de esta tecnología, y se fomente el conocimiento y la promoción de una ciudadanía digital responsable (DPRP, 2022).

Timothy Scott Hall, director de asuntos gubernamentales de la empresa Intel de Costa Rica menciona que “el propósito de Intel es crear tecnología que mejore la vida de todas las personas del planeta (DPRP, 2022b, p. 1). Y añade: “apoyar al país en su ruta hacia una industria basada en el conocimiento es un compromiso que asumimos hace 25 años, cuando la empresa se estableció en Costa Rica, y este convenio es una muestra concreta de ello” (DPRP, 2022b, p. 1). En el año 2019 Intel desplegó el programa AI For Youth o Inteligencia artificial para jóvenes de entre 13 y 19 años, incluyendo los insumos para el diseño de los programas educativos, el desarrollo de material didáctico y los procesos de actualización docente en el tema de IA, así como el aprendizaje automático. Adicionalmente, los estudiantes del ciclo lectivo 2023 tendrían una beca para aprender inglés como segunda lengua. Vanessa Gibson de CINDE añadió, “en el horizonte también se nos plantea el reto de aprovechar todo el potencial de esta tecnología para alcanzar una participación equitativa e inclusiva con beneficios para la mayoría” (DPRP, 2022b, p. 1).

En marzo de 2024, coincidiendo con el Día Internacional de la Mujer, Intel presentó la iniciativa Mil Mujeres IA (M1000IA), cuyo propósito es empoderar a mil mujeres de América Latina mediante cursos especializados en inteligencia artificial. Esta iniciativa busca facilitar el acceso a la IA y su aplicación práctica en el ámbito laboral. Se ofrecerán cuatro cursos en línea, dirigidos a mujeres mayores de 18 años de Argentina, Colombia, Costa Rica, México y Uruguay. Los cursos, financiados por Intel, tendrán una duración de doce semanas y otorgarán un certificado de la Universidad Tecnológica Nacional de Argentina (UTN) (MICITT, 2023a, 2024).

En agosto de 2023, el Ministerio de Ciencia, Innovación, Tecnología y Telecomunicaciones (MICITT), en colaboración con el Instituto Nacional de Aprendizaje (INA), lanzó el programa “Crear e implementar inteligencia artificial en su negocio”, como parte de la creación de la estrategia nacional de IA. Este programa está diseñado para fortalecer las capacidades en la adopción de la IA, con el objetivo de mejorar la productividad y competitividad de las pequeñas y medianas empresas (pymes). Orlando Vega, viceministro del MICITT, destacó que se capacitarán a cuarenta empresas que cumplan con tres años de operación, proporcionando asesoría personalizada para desarrollar herramientas basadas en IA y así aumentar sus oportunidades de internacionalización (MICITT, 2023c).

En abril de 2024, Costa Rica se convirtió en el escenario de discusiones estratégicas con la visita de Gina Raimondo, Secretaria de Comercio de Estados Unidos. Durante su reunión con líderes del sector privado y funcionarios gubernamentales, se llevó a cabo un diálogo de alto nivel sobre el centro de excelencia en Costa Rica. Esta iniciativa, respaldada por el Gobierno de Estados Unidos y la Unión Europea, tiene como objetivo desarrollar talento especializado en áreas STEM y capacitar a profesionales en sectores clave como ciberseguridad, 5G/6G, semiconductores, computación en la nube, realidad aumentada/virtual e inteligencia artificial (OECD, 2018; Revista Summa, 2024).

7. RESULTADOS

Se hace evidente la aceleración que están haciendo los países en cuanto a la formación, incorporación y desarrollo de nuevas tecnologías. Sin embargo, los gobiernos y organizaciones deben ocuparse prontamente en elaborar una normativa, así como una serie de regulaciones —en especial sobre la IA—, puesto que sin estas reglas efectivas existe el riesgo de que la adopción de IA cree nuevas desigualdades y amplíe las ya existentes.

Contar con una normativa sobre la IA permite que la tecnología se utilice en beneficio de la sociedad en su conjunto, con la consideración de adaptar efectivamente dichas regulaciones hacia lo interno de las organizaciones y gobiernos y, de esta forma, acompañar la evolución constante, ser parte de un cambio seguro, proactivo y no reactivo, y minimizar los impactos negativos de la IA.

A partir de los análisis y el resumen de las tablas presentadas anteriormente, se extraen las consideraciones clave y se muestran los resultados en una tabla de análisis FODA (nomenclatura de Fortalezas, Oportunidades, Debilidades y Amenazas) como guía base para elaborar marcos de normativas y regulaciones sobre la IA.

Tabla 4

Resumen de análisis FODA para elaborar una normativa sobre IA

Fortalezas

Dominios IA

Temas a considerar para una normativa sobre IA

Marco legal y regulatorio

Establecer un marco legal sólido de IA que proporcione claridad regulatoria de la IA.

Incorporar el Índice Latinoamericano de Inteligencia Artificial como referencia.

Prospecto algorítmico como directriz para el desarrollo ético de sistemas IA.

Definir regulaciones sobre la IA para aumentar la eficiencia y eficacia de sectores enteros, incluida la prestación de servicios públicos, mejora en la educación y la salud.

Ética y principios rectores

Enfoque equilibrado entre vida laboral y personal.
Marco ético que considere el impacto cultural y social.
Inclusión de principios humanos como empatía, juicio y justicia de manera responsable, segura y alineada con los valores humanos.

Gobernanza y supervisión

La adopción de un enfoque centrado en lo humano. Niveles de madurez de IA determinados para una implementación responsable.
Coordinación regional y multilateral para una visión estratégica con el potencial para convertir el país en carbono neutral usando la tecnología IA.

Oportunidades

Protección de datos y privacidad

Uso amplio de la tecnología de IA.
Consideración de aspectos positivos y controversiales sobre la privacidad y minimización de amenazas potenciales.
La innovación en IA puede mejorar la protección de la privacidad y la seguridad de los datos.

Evaluación de riesgos y seguridad

Identificación de riesgos y seguridad para una implementación segura.

Evaluación del impacto sobre los derechos fundamentales.
Sistemas IA con riesgo significativo sometidos a evaluaciones detalladas.

El potencial de la IA permite aumentar la eficiencia y eficacia, reduciendo los riesgos en la seguridad pública y la salud.

Auditorías y conformidad

Establecimiento de mecanismos de rendición de cuentas mediante diálogo entre partes interesadas.

Fortalecimiento de la transparencia en la implementación y el desarrollo de la IA buscando el equilibrio entre la vida laboral y personal.

Enfoque de rendición de cuentas y promoción del no daño al utilizar la IA.

Fortalezas

Dominios IA

Temas a considerar para una normativa sobre IA

Educación y formación

Formación en cualidades humanas para un uso equitativo de la IA.

Promoción de la investigación y desarrollo en IA preparando a la fuerza laboral, al Gobierno y a las empresas para el futuro.
Necesidad de sensibilización y promoción para aprovechar el potencial del talento humano.

Transparencia y responsabilidad

Consideración de múltiples partes interesadas para abordar temas políticos y regulatorios.

Enfoque en igualdad de género en la implementación de IA.
Necesidad de que la inteligencia artificial se trabaje de manera explícita y deliberada en el marco de las políticas de desarrollo productivo de los países.

Debilidades

Impacto social y económico

Desafíos en la incorporación efectiva de aplicaciones de IA en áreas socioeconómicas.

Posible obstáculo de regulación para el desarrollo tecnológico e industrial.

Altos costos de generar estadísticas y poca coordinación para compartir datos regionalmente.

Amenazas

Cooperación internacional

Incertidumbre en el impacto de la IA en la sociedad y economía.
La incertidumbre puede generar miedo, desconfianza y resistencia hacia la adopción de la IA, incluso obstaculizando el desarrollo de esta tecnología.

No hay una posición del Gobierno o la sociedad para abordar temas complejos y políticos a nivel internacional.

Dificultad para generar marcos interoperables y transfronterizos entre países.

No poder compartir estadísticas ni crear espacios para construcción colectiva de políticas de IA.

8. CONCLUSIONES

La inteligencia artificial es una tecnología transformadora y disruptiva con un impacto significativo en la sociedad y la economía. En este artículo se han mostrado elementos relevantes que sirven de base para elaborar un compendio de regulaciones para la promoción y adopción de la IA, tanto para los gobiernos como para las organizaciones privadas. El primer Índice Latinoamericano de Inteligencia Artificial (ILIA), desarrollado por la Cepal, y su segunda actualización, proveen herramientas válidas que miden el estado actual del país con respecto a la planificación, gobernanza y aplicación de la IA. Se pretende que estas herramientas, junto con los elementos clave de los organismos Unesco, OCDE, Cepal y BID, las regulaciones de la Unión Europea, Estados Unidos y República Popular China, así como la iniciativa de una estrategia IA para Costa Rica, contribuyan a la transformación de los modelos de desarrollo en América Latina y el Caribe, para hacerlos más productivos, inclusivos y sostenibles.

Sin embargo, para aprovechar las oportunidades y minimizar las potenciales amenazas que esta tecnología trae consigo, se requiere de reflexión, visión estratégica, regulación y coordinación regional y multilateral para generar planes estratégicos de IA, preferiblemente medidos con el indicador ILIA. Todo esto para apoyar el desarrollo y la implementación transparente de una normativa coherente y efectiva en marcos regulatorios y legales, los cuales —además— deben ser interoperables y transfronterizos y deben promover la colaboración y consensos con otros países.

Por el lado de la academia en su rol de formación, se deben reforzar los planes y programas curriculares incorporando habilidades y competencias en IA, junto con un enfoque sobre la ética como elemento fundamental para que los alumnos comprendan el uso justo y responsable de esta tecnología.

Las pautas analizadas en este artículo pueden servir de base para normar y gestionar la IA, así como para adoptarla y usarla de manera responsable en beneficio de la sociedad, salvaguardando principalmente los valores éticos y garantizando que la tecnología continúe siendo una fuerza positiva en nuestra sociedad.

Contar con una regulación adecuada no solo protege los derechos y valores, sino que también promueve la confianza en la IA como una herramienta tecnológica que se puede introducir en la sociedad con el objeto de mejorar nuestras vidas de manera significativa.

Se recomienda al lector que utilice todas las tablas con las consideraciones clave, y también el resumen de análisis FODA como referencia para el desarrollo de otras investigaciones, pero en especial para coadyuvar en la elaboración de marcos normativos y regulatorios sobre IA —ya sea a nivel de PYME o empresa individual, a nivel empresarial o a nivel país—, pero también con el propósito de apoyar en el diseño de guías curriculares, talleres y cursos de formación que incorporen aspectos técnicos y éticos de la inteligencia artificial.

Referencias

Baiocchi, A. & Leicht, A. (2023, 12 de abril). Inteligencia artificial en Costa Rica: justicia, ética e inclusión para no dejar a nadie atrás. Unesco. https://www.unesco.org/es/articles/inteligencia-artificial-en-costa-rica-justicia-etica-e-inclusion-para-no-dejar-nadie-atras

Burt, A. (2021, 30 de abril). New AI regulations are coming. Is your organization ready? Harvard Business Review. https://hbr.org/2021/04/new-ai-regulations-are-coming-is-your-organization-ready

Cain, L. & Webster, C. (2022, 2-7 noviembre). The origin, rationale, and impacts of regulations on robots and AI in tourism and hospitality [Presentación de escrito]. International Conference on Innovation, Documentation and Education, INNODOCT/22, Valencia, 111–118. https://doi.org/10.4995/inn2022.2022.15978

Comisión Económica para América Latina y el Caribe (2023, 11 de agosto). La inteligencia artificial puede contribuir a la transformación de los modelos de desarrollo en América Latina y el Caribe para hacerlos más productivos, inclusivos y sostenibles. https://www.cepal.org/es/comunicados/la-inteligencia-artificial-puede-contribuir-la-transformacion-modelos-desarrollo-america#:~:text=La%20inteligencia%20artificial%20(IA)%20puede,se%20requiere%20reflexi%C3%B3n%2C%20visi%C3%B3n%20estrat%C3%A9gica%2C

Comisión Económica para América Latina y el Caribe (2024, 24 de setiembre). Lanzamiento de la segunda versión del “Índice Latinoamericano de Inteligencia Artificial (ILIA). https://www.cepal.org/es/eventos/lanzamiento-la-segunda-version-indice-latinoamericano-inteligencia-artificial-ilia

Chatterjee, S. (2020). Impact of AI regulation on intention to use robots: From citizens and government perspective. International Journal of Intelligent Unmanned Systems, 8(2), pp. 97-114.

Cuéllar, M. F., Larsen, B., Lee, Y. S., & Webb, M. (2024). Does information about AI regulation change manager evaluation of ethical concerns and intent to adopt AI? Journal of Law, Economics, and Organization, 40(1), 34-75. https://doi.org/10.1093/jleo/ewac004

Dirección de Educación Técnica y Capacidades Emprendedoras. (2022). Programa de estudio Inteligencia Artificial. Minsterio de Educación Pública de Costa Rica.https://www.mep.go.cr/sites/default/files/2024-03/inteligenciaartificial12.pdf

Dirección de Prensa y Relaciones Públicas. (2022b, 24 de noviembre). Convenio entre MEP e Intel Costa Rica habilitará la especialidad de inteligencia artificial en colegios técnico-profesionales el otro año. Ministerio de Educación Pública de Costa Rica. https://www.mep.go.cr/noticias/convenio-mep-e-intel-costa-rica-habilitara-especialidad-inteligencia-artificial-colegios-te

Dumouchel, P. (2023). AI and regulations. AI, 4(4), 1023-1035. https://doi.org/10.3390/ai4040052

Ferreira Beni, P., Barone, D. A., & De Ortúzar, M. (2023, 13-17 noviembre). Cuestiones éticas sobre la Inteligencia Artificial en la educación [Ponencia]. Semana de la Filosofía, La Plata, Argentina. https://www.memoria.fahce.unlp.edu.ar/trab_eventos/ev.17321/ev.17321.pdf

Franks, E., Lee, B., & Xu, H. (2024). Report: China’s new AI regulations. Global Privacy Law Review, 5(1), 43-49. https://doi.org/10.54648/gplr2024007

Galdón Clavell, G. & Lorente Martínez, A. (2022). Hacia un prospecto en el marco regulatorio laboral en Argentina. Análisis tecnológico, marco regulatorio y buenas prácticas. CIPPEC; Eticas; BID Lab Buenos Aires. https://publications.iadb.org/es/hacia-un-prospecto-en-el-marco-regulatorio-laboral-en-argentina-analisis-tecnologico-marco

Gstrein, O. J. (2022). European AI regulation: Brussels effect versus human dignity? Zeitschrift Für Europarechtliche Studien, 25(4), 755-772. https://doi.org/10.5771/1435-439X-2022-4-755

Katulić, T. (2020). Towards the trustworthy AI: Insights from the regulations on data protection and information security. Media Research: Croatian Journal for Journalism and the Media, 26(2), 9-28.

Khairo, F., & Busroh, F. F. (2023). Harnessing the power of AI in shaping sdministrative law regulations. International Journal of Science and Society, 5(4), 617-625 https://doi.org/10.54783/ijsoc.v5i4.826

Konttila J. & Väyrynen, K. (2022). Challenges of current regulation of AI-based healthcare technology (AIHT) and potential consequences of the European AI Act proposal. En Fischer, L. H., Nørbjerg, J., & Pries-Heje, J. (Eds.) Proceedings of the 13th Scandinavian Conference on Information Systems. Association for Information Systems (AIS). Proceedings / Information Systems Research In Scandinavia (IRIS) https://aisel.aisnet.org/scis2022/7

Martínez, M. V. (2024). De qué hablamos, cuando hablamos de inteligencia artificial. Oficina Regional de Unesco en Montevideo; Consejo Latinoamericano de Ciencias Sociales. https://unesdoc.unesco.org/ark:/48223/pf0000391087

Ministerio de Educación Pública de Costa Rica (2008). El centro educativo de calidad como eje de la educación costarricense. https://ruie.ucr.ac.cr/catalogo/Record/INIE-UIR-CD-1909?sid=859603

Ministerio de Ciencia, Innovación, Tecnología y Telecomunicaciones (2023a, 20 de febrero). MICITT e Intel unen esfuerzos para capacitar a estudiantes fuera de GAM sobre inteligencia artificial. https://www.micitt.go.cr/el-sector-informa/micitt-e-intel-unen-esfuerzos-para-capacitar-estudiantes-fuera-de-gam-sobre

Ministerio de Ciencia, Innovación, Tecnología y Telecomunicaciones (2023b). MICITT inicia formulación de estrategia de inteligencia artificial. https://www.micitt.go.cr/el-sector-informa/micitt-inicia-formulacion-de-estrategia-de-inteligencia-artificial

Ministerio de Ciencia, Innovación, Tecnología y Telecomunicaciones (2023c, 9 de agosto). PYMEs y PYMPAs aplicarán herramientas de Inteligencia Artificial para mejorar competitividad de sus negocios gracias a Plan Piloto. https://www.micitt.go.cr/el-sector-informa/pymes-y-pympas-aplicaran-herramientas-de-inteligencia-artificial-para-mejorar

Ministerio de Ciencia, Innovación, Tecnología y Telecomunicaciones (2024, 8 de marzo). Intel entrenará a 1000 mujeres en inteligencia artificial en América Latina. https://www.micitt.go.cr/el-sector-informa/intel-entrenara-1000-mujeres-en-inteligencia-artificial-en-america-latina

Nitzberg, M., & Zysman, J. (2022). Algorithms, data, and platforms: the diverse challenges of governing AI. Journal of European Public Policy, 29(11), 1753-1778. https://doi.org/10.1080/13501763.2022.2096668

Novelli, C., Casolari, F., Rotolo, A., Taddeo, M. & Floridi, L. (2024). Taking AI risks seriously: a new assessment model for the AI Act. AI & Society, 39, 2493-2497. https://doi.org/10.1007/s00146-023-01723-z

OECD. (2018). AI: Intelligent machines, smart policies: Conference summary. OECD Digital Economy Papers, 270, 1–33. https://doi.org/10.1787/f1a650d9-en

Picado, N. (2023, 16 de mayo). Directores de colegios técnicos analizan oferta técnica del MEP y el futuro de la especialidad. Ministerio de Educación Pública de Costa Rica. https://www.mep.go.cr/noticias/directores-colegios-tecnicos-analizan-oferta-tecnica-mep-futuro-especialidad

Pichai, S. (2018, 7 de junio). AI at Google: our principles. The Keyboard. https://blog.google/technology/ai/ai-principles/

Pownall, C. (2019, 2 de julio). Understanding the reputational risks of AI. Charlie Pownall. Reputation Management and Communications. https://charliepownall.com/?s=Understanding+the+reputational+risks+of+AI

Revista Summa. (2024, 1 de abril). Autoridades sostienen diálogo clave con EE.UU. para crear Centro de Excelencia en Costa Rica. https://revistasumma.com/autoridades-sostienen-dialogo-clave-con-ee-uu-para-crear-centro-de-excelencia-en-costa-rica/

Schuett, J. (2023). Defining the scope of AI regulations. Law, Innovation and Technology, 15(1), 60-82. https://doi.org/10.1080/17579961.2023.2184135

Sheehan, M. (2023). China’s AI Regulations and How They Get Made. Carnegie Endowment for International Peace. https://carnegieendowment.org/research/2023/07/chinas-ai-regulations-and-how-they-get-made?lang=en

Soto Arriaza, Á., & Durán Rojas, R. (2024). Índice latinoamericano de inteligencia artificial 2023. Centro Nacional de Inteligencia Artificial. https://centrodepensamientodigital.org/wp-content/uploads/2024/03/1.-Indice-Latinoamerciano-de-IA-ILIA-2023.pdf

Stahl, B. C., Rodrigues, R., Santiago, N., & Macnish, K. (2022). A European agency for artificial intelligence: Protecting fundamental rights and ethical values. Computer Law and Security Review, 45, 105661. https://doi.org/10.1016/j.clsr.2022.105661

Tallberg, J., Lundgren, M., & Geith, J. (2024). AI regulation in the European Union: examining non-state actor preferences. Business and Politics, 26(2), 218-239, https://doi.org/10.1017/bap.2023.36

Truby, J., Brown, R., & Dahdal, A. (2020). Banking on AI: mandating a proactive approach to AI regulation in the financial sector. Law and Financial Markets Review, 14(2), 110-120. https://doi.org/10.1080/17521440.2020.1760454

Unesco (2024). Diálogo político sobre la gobernanza de la IA. https://www.unesco.org/es/articles/dialogo-politico-sobre-la-gobernanza-de-la-ia