Introducción
Guatemala está en una posición crítica en materia de gobernanza de la inteligencia artificial (IA), en la que puede prevenir o permitir que esta se despliegue sin reglas del juego claras.
La realidad actual ofrece una oportunidad excepcional ya que la IA todavía no está ampliamente desplegada en las instituciones gubernamentales y sector privado. El 44% de empresas guatemaltecas aún no usan IA y el 41% está apenas explorándola. Mientras el gobierno desarrolla su primera estrategia nacional (con una presentación prevista para junio 2026), la pregunta urgente no es si la IA llegará, sino más bien si el país establecerá alguna forma de gobernanza antes de que cause daños y sea demasiado tarde.
La importancia de actuar ahora no tiene que ver con seguir tendencias globales; se trata de proteger a la ciudadanía guatemalteca de riesgos concretos y previsibles. Guatemala puede elegir un camino diferente, estableciendo una regulación que tenga sentido para el país, sin copiar exactamente lo que otros países han hecho, con el fin de contar con una regulación efectiva que proteja a todas las personas y promueva la innovación.
Guatemala tiene una ventana de oportunidad excepcional pero fugaz. Mientras la IA aún no se despliega masivamente, el país puede prohibir usos inaceptables antes de que ocurran, crear instituciones de supervisión antes de una crisis, diseñar regulación para su economía antes de que intereses consolidados dificulten cambios, y posicionarse como un líder regional. Pero cada mes que pasa, la ventana se cierra un poco más. Una vez que los algoritmos tomen decisiones masivamente sin marcos regulatorios, corregir el rumbo será más difícil.
La Comisión Presidencial de Gobierno Abierto y Electrónico (GAE) ya lidera el desarrollo de la estrategia de IA. Con autoridad legislativa ampliada, recursos adecuados y coordinación entre ministerios, puede convertirse en el ancla institucional para una regulación proactiva. Este primer blog ofrece un análisis de la situación actual de gobernanza de la IA en Guatemala y en la región, identificando los riesgos específicos de inacción para el contexto nacional.
El caso a favor de la gobernanza de la IA en Guatemala.
Estado actual de la política de IA en Guatemala
Actualmente, el gobierno guatemalteco está trabajando en su primera política relacionada con la IA. La Comisión Presidencial de Gobierno Abierto y Electrónico (GAE) está construyendo un marco nacional sobre IA con la orientación del Programa de las Naciones Unidas para el Desarrollo (PNUD) a través de su iniciativa de Evaluación del Panorama de la Inteligencia Artificial (AILA). AILA es una herramienta estratégica que evalúa la disposición de un país para integrar tecnologías de IA dentro de sus marcos gubernamentales. Su objetivo principal es ayudar a los gobiernos a aprovechar los beneficios de la IA para transformar la prestación de servicios públicos y estimular un uso económico más amplio de la IA, gestionando al mismo tiempo los riesgos asociados en el despliegue. AILA se centra especialmente en tres áreas:
- El gobierno como usuario
- El gobierno como facilitador
- IA ética
El marco de Guatemala se está desarrollando en torno a tres pilares estratégicos:
- Ecosistema de IA: Inversión en investigación y desarrollo, talento humano con competencias digitales, infraestructura y conectividad de calidad.
- Gobernanza: Capacidades institucionales, marcos de interoperabilidad y gestión de datos.
- Regulación y ética: Marcos claros sobre protección de datos y privacidad.
Una vez completada, esta evaluación ayudará a los funcionarios en la toma de decisiones. El gobierno guatemalteco está llevando a cabo esta iniciativa como un proceso de co-creación que involucra a diferentes sectores de la sociedad guatemalteca, con el objetivo de responder tanto a las necesidades institucionales como a las de los ciudadanos mediante la inclusión participativa. Tras el desarrollo de AILA, GAE planea desarrollar colaborativamente una Estrategia Nacional sobre Inteligencia Artificial. La formulación de la estrategia está prevista para el periodo comprendido entre octubre de 2025 y marzo de 2026, con su validación y presentación programadas para junio de 2026.
En el ámbito legislativo, en octubre de 2025 se presentó al Congreso un proyecto de ley de protección de datos relacionado con la IA, el cual aún no ha sido revisado. Esta sería la primera ley de Guatemala sobre el tema, aparentemente destinada a regular la desinformación y los deepfakes.
En cuanto al sector privado, un estudio realizado por el Centro de Investigaciones Humanismo y Empresa (CIHE) de la Universidad del Istmo encuestó a 200 altos directivos. La encuesta revela que, aunque la adopción de la IA en las empresas aún está en fases tempranas (con un 44% de las empresas que no utilizan IA en ningún área clave y un 41% aún en fase de exploración), existe un fuerte optimismo sobre su impacto futuro. Las principales motivaciones para la adopción de la IA son las mejoras en eficiencia y la reducción de costos (81%), seguidas de una mejor toma de decisiones basada en datos (81%). Se espera que el servicio al cliente (68%), el marketing (63%) y la producción (62%) vean la integración de IA más significativa en los próximos cinco años. Sin embargo, las preocupaciones sobre ciberseguridad y confidencialidad de datos encabezan la lista de temores, con un 63% que las considera un riesgo significativo, seguidas por la falta de conocimiento y dificultades de integración (ambas un 47%). Curiosamente, la preocupación por la pérdida de empleo es mínima: el 64% de los encuestados considera que la reducción de empleos relacionada con la automatización no presenta riesgo, y solo el 15% la ve como una amenaza significativa.
Riesgos de inacción
Muchos investigadores, incluidos los de empresas de IA, analizan y discuten continuamente las posibles amenazas que la IA podría suponer para la sociedad a través de su despliegue y uso. El CEO de Anthropic ha hablado repetidamente sobre los riesgos que probablemente conllevará la IA. Solo en Estados Unidos, las estimaciones sugieren que la IA podría eliminar la mitad de todos los empleos de nivel inicial y aumentar el desempleo en 5 años. En escenarios más catastróficos, los modelos de IA podrían ayudar a las personas a desarrollar armas químicas, biológicas o nucleares. Las empresas prueban modelos antes del despliegue para evitar tales resultados, pero estas empresas toman esas decisiones de seguridad por sí mismas, y no todas adoptan enfoques rigurosos para el despliegue.
Los modelos de agentes de IA, que operan con una autonomía significativa, presentan riesgos especialmente graves dependiendo de las tareas que realicen. Estos modelos ya se están utilizando para llevar a cabo operaciones de ciberataque que ponen en riesgo a empresas, gobiernos e individuos. La falta de regulación en esta etapa crítica del desarrollo de la IA deja a las sociedades vulnerables a daños que podrían prevenirse mediante marcos de gobernanza proactiva.
Para Guatemala específicamente, la inacción regulatoria presenta cuatro riesgos críticos:
- Discriminación que excluirá a las mayorías: Sin regulación, los algoritmos replicarán y amplificarán desigualdades existentes. Un sistema de puntaje de crédito[1] rechazará automáticamente a trabajadores de la economía informal, no porque sean irresponsables, sino porque el algoritmo no reconocerá sus patrones económicos no tradicionales. Para el algoritmo, el 70% de guatemaltecos que trabajan informalmente simplemente no existirán. Los algoritmos de la IA replican los sesgos presentes en los datos con que se entrenan. Esto significa que sin regulación o supervisión los sistemas de contratación podrían discriminar , reproduciendo prejuicios, pero ahora a velocidad y escala industrial. En Guatemala, donde la mayoría de la población es indígena, gran parte de la fuerza laboral es informal y grandes cantidades de personas viven en áreas rurales, los efectos de los sesgos algorítmicos de la IA pueden ser significativos
- Economía concentrada que sofoca la innovación: Más allá de los riesgos tecnológicos, la IA no regulada supone riesgos económicos para Guatemala. La estructura de mercado del país, donde pocos actores clave dominan en distintos sectores, podría concentrarse aún más con el despliegue de la IA, ya que las grandes empresas tienen mayor capacidad para invertir y beneficiarse de estas tecnologías, mientras que las pequeñas empresas y la economía informal (que constituye una parte significativa de la actividad económica de Guatemala) corren el riesgo de quedarse atrás, especialmente si regulaciones complejas crean barreras que solo grandes empresas pueden costear y cumplir. Actuar proactivamente permite diseñar desde el inicio una regulación proporcional con reglas claras que habiliten la innovación para empresas de todos tamaños.
- Crisis laborales y económicas sin preparación: Guatemala se enfrenta a un doble riesgo de desempleo: a nivel nacional, si la automatización impulsada por IA desplaza a los trabajadores más rápido de lo que surgen nuevas oportunidades, y a nivel internacional, si las disrupciones económicas impulsadas por la IA en las principales economías (particularmente Estados Unidos y otros socios comerciales) desencadenan recesiones o crisis financieras que inevitablemente afecten a Guatemala mediante la reducción del comercio, los flujos de inversión y el contagio financiero general. Estos shocks no han ocurrido todavía, pero son absolutamente previsibles.
No solo para Guatemala, sino para muchos países, los marcos para responder a choques económicos y laborales están desfasados y fueron diseñados para un cambio tecnológico gradual, en lugar de para disrupciones rápidas impulsadas por la IA. La capacidad para responder a este tipo de choques dependerá de los marcos instalados y de las capacidades institucionales. Sin estrategias proactivas de evaluación de riesgos y mitigación (como coordinación entre el Ministerio de Trabajo y el Ministerio de Finanzas para modelar tanto escenarios nacionales como internacionales), Guatemala podría enfrentarse a choques económicos para los que no está preparada.
- Soberanía digital erosionada: Guatemala carece de infraestructura para construir modelos de IA propios, dependiendo de proveedores extranjeros. Cuando datos sensibles de millones de guatemaltecos sean procesados en servidores bajo jurisdicción foránea, ¿podrá Guatemala hacer cumplir sus leyes? ¿Investigar daños? ¿Exigir rendición de cuentas? Lo que sí está pasando ahora es que datos de guatemaltecos están siendo utilizados para entrenar modelos de IA sin marcos legales sobre consentimiento o derechos. Guatemala no tiene ley de protección de datos, una brecha fundamental que debe abordarse urgentemente.
El riesgo no es solo que la IA agrave las desigualdades existentes a través de algoritmos sesgados en los sistemas de crédito, bienestar o justicia, sino que transforme fundamentalmente la estructura económica de Guatemala y desencadene crisis económicas internacionales que se transmitan a Guatemala de formas que profundizarían en lugar de reducir la pobreza.
Marcos regulatorios internacionales
En lo que respecta a la gobernanza de la IA, los gobiernos se enfrentan al reto de crear marcos legales que fomenten la innovación y, al mismo tiempo, salvaguarden los derechos fundamentales y las políticas públicas. En esta sección, examino varios ejemplos, comenzando por la Ley de IA de la Unión Europea (UE) y luego explorando enfoques regulatorios en otros países latinoamericanos.
Ley de IA de la UE: un enfoque basado en el riesgo
La UE emplea un enfoque basado en el riesgo en sus regulaciones, adaptando las obligaciones regulatorias al daño potencial que puede generar un sistema de IA. La regulación establece cuatro niveles principales de riesgo:
- Prácticas de IA prohibidas: Los sistemas considerados de riesgo inaceptable están explícitamente prohibidos. Ejemplos incluyen el uso de técnicas manipulativas para distorsionar el comportamiento de una persona, sistemas de puntuación social y sistemas de identificación biométrica en tiempo real en espacios públicos.
- Sistemas de IA de alto riesgo: Aunque están permitidos, estos sistemas están sujetos a requisitos obligatorios estrictos, incluyendo gestión de riesgos, gobernanza de datos y supervisión humana. Ejemplos incluyen sistemas que determinan el acceso a instituciones educativas, decisiones de reclutamiento y evaluaciones de riesgos de individuos.
- Sistemas de IA de riesgo limitado: Estos sistemas están sujetos a obligaciones específicas de transparencia para asegurar que los usuarios sean conscientes de que interactúan con IA o ven contenido generado por IA. Por ejemplo, los chatbots deben informar a los usuarios que no están interactuando con otro humano.
- Sistemas de IA de riesgo mínimo: Esta categoría incluye todos los demás sistemas de IA no cubiertos en las categorías anteriores, sin obligaciones legales.
La visión general de América Latina
Una revisión comparativa de las propuestas de política de IA más relevantes de los países latinoamericanos muestra principios comunes claros, reflejando consenso sobre el desarrollo de marcos responsables de IA. No todos los proyectos de ley y políticas han sido aprobados. La ley de IA de Brasil, por ejemplo, sigue siendo objeto de debate ya que las grandes empresas tecnológicas intentan debilitar algunas de las regulaciones más estrictas. Colombia aún no ha aprobado un proyecto de ley, pero ha adoptado otros instrumentos de política (aprobados en febrero de 2025) que establecen objetivos estratégicos. De manera similar, Chile aprobó una Política Nacional de IA en 2024, aunque el proyecto de ley que lo acompaña aún no ha sido aprobado. El proyecto de ley de regulación de la IA en México tampoco ha sido aprobado.
Surgen varios temas comunes en estas iniciativas:
- Marco de IA centrada en los Derechos Humanos: Muchos países, incluidos Chile y Brasil, incluyen capítulos específicos que abordan su intención de regular la IA desde una perspectiva de derechos humanos. Brasil menciona explícitamente los derechos de las personas afectadas por la IA.
- Regulación basada en riesgos: Al igual que en la UE, muchos países favorecen adoptar un modelo regulatorio basado en los niveles de riesgo. Países como Brasil, Chile, Colombia, México y Perú planean emplear sistemas escalonados para definir los niveles de riesgo de los sistemas de IA.
- Alcance: Las políticas suelen tener un alcance amplio, orientadas a la aplicación territorial, independientemente de si el proveedor es nacional o extranjero.
- Obligaciones: Varían según el país. Por ejemplo, Brasil exige una evaluación preliminar de riesgos para todos los sistemas antes de su introducción en el mercado y una evaluación algorítmica del impacto para sistemas de alto riesgo. Chile establecerá un organismo asesor técnico de IA que probablemente va a monitorear y supervisar el despliegue de modelos. Argentina y Colombia exigen registros para sistemas de alto riesgo.
Según un informe del Banco Interamericano de Desarrollo, dos factores clave limitan la regulación de la IA en América Latina: la incertidumbre tecnológica y la capacidad institucional. En cuanto a la incertidumbre tecnológica, el informe sugiere que es difícil anticipar los riesgos de la IA. Sin embargo, en este ensayo propongo que esta limitación puede mitigarse significativamente con asesores cualificados que se mantengan al día sobre los desarrollos de la IA para que los gobiernos puedan predecir de forma razonable su trayectoria, ya que el desarrollo y los objetivos a largo plazo de las grandes empresas de IA (incluyendo el despliegue generalizado de los agentes de IA para 2026 y el logro eventual de la IA general) son de dominio público y relativamente predecibles.
La capacidad institucional plantea un desafío más fundamental, especialmente para Guatemala. Los marcos regulatorios más estrictos requieren muchos recursos, por lo que se enfrentan a serias cuestiones de viabilidad en un contexto donde la pobreza y la inseguridad alimentaria siguen siendo problemas urgentes y los ciudadanos tienen numerosas necesidades básicas no cubiertas. Asignar una parte sustancial del presupuesto nacional a la infraestructura de gobernanza de la IA plantea preocupaciones legítimas sobre la priorización, especialmente tomando en cuenta que el presupuesto del 2026 ya ha sido definido.
¿Sigue siendo la Ley de IA de la UE el modelo para América Latina?
Teniendo en cuenta el contexto nacional, Guatemala debería diseñar un marco regulatorio que aprenda de la experiencia internacional, pero que responda a las realidades nacionales. Los proyectos de ley latinoamericanos revisados anteriormente se basan en la Ley de IA de la UE. Sin embargo, se espera que la Comisión Europea presente un paquete de reformas que podría modificar el Reglamento General de Protección de Datos y la Ley de IA. Aparentemente, sugieren que las empresas que desplieguen sistemas de IA de alto riesgo podrían recibir un periodo de gracia de un año antes de que entren en vigor las obligaciones y multas, lo que beneficiaría a proveedores que ya han puesto en el mercado sistemas de IA generativa. Además, las sanciones por violaciones de transparencia, como no etiquetar contenido generado por IA, podrían posponerse hasta agosto de 2027. Si se implementan, estas reformas podrían cambiar la perspectiva de muchos otros países, especialmente en América Latina, que han recurrido a la Ley de IA de la UE al redactar sus propios proyectos de ley. Algunos sostienen que, si la UE está retrocediendo de las regulaciones previamente estrictas para permitir la innovación, tiene poco sentido que países como Chile (por ejemplo) aprueben leyes más estrictas.
Esta incertidumbre regulatoria pone de manifiesto un desafío más profundo: el desarrollo de la IA está superando la capacidad gubernamental para crear marcos que la regulen. Para Guatemala, esto crea tanto un problema como una oportunidad. El problema es que esperar a un consenso latinoamericano sobre la regulación o incluso a que la UE finalice su enfoque significa quedarse cada vez más atrás a medida que los sistemas de IA se despliegan sin supervisión. La oportunidad es que Guatemala pueda diseñar marcos flexibles que dejen margen para adaptaciones a medida que la tecnología evoluciona en lugar de intentar crear regulaciones integrales que sean obsoletas antes de su implementación. La cuestión para Guatemala no es simplemente seguir el modelo de la UE o no, sino decidir qué tipo de regulación puede implementarse de forma realista dada la capacidad técnica limitada y las diferentes prioridades políticas del gobierno. Esto requiere una evaluación liderada por parte de autoridades de diferentes sectores relevantes dentro del gobierno, priorizando medidas que construyan la capacidad regulatoria de forma progresiva en lugar de intentar diseñar marcos que excedan la capacidad institucional.
[1] Número que califica comportamiento crediticio basado en el historial crediticio. Una medida que le muestra a bancos y prestamistas qué tan alta o baja es la probabilidad de que alguien pague un crédito.