FOTOS BLOG (1)

¿Cómo puede Guatemala regular la inteligencia artificial? Una propuesta práctica

Por Ana Sáenz de Tejada
COMPARTE:

Introducción

En el blog anterior exploramos el panorama de la gobernanza de la inteligencia artificial  (IA): dónde está Guatemala, qué están haciendo otros países latinoamericanos, y por qué la Ley de IA de la Unión Europea quizás no sea el modelo correcto para la región (o por lo menos para Guatemala). Identificamos los riesgos de inacción (discriminación algorítmica, crisis económicas, pérdida de soberanía digital) pero también exploramos la oportunidad única que tiene Guatemala de actuar proactivamente mientras la IA aún está en fase inicial de adopción.

Ahora toca la pregunta más importante: ¿qué hacer?

Este segundo blog presenta un camino realista para establecer gobernanza de IA en Guatemala. No se trata de copiar marcos regulatorios europeos. Se trata de diseñar una regulación adaptada a las realidades guatemaltecas aprovechando instituciones existentes, como la Comisión Presidencial de Gobierno Abierto y Electrónico (GAE),  priorizando los ámbitos donde los riesgos son más altos y construyendo capacidad regulatoria de forma progresiva.

Desde restricciones institucionales hasta usos prohibidos, desde coordinación interministerial hasta implementación por fases, presentamos la siguiente hoja de ruta para que Guatemala tenga la capacidad de prevenir daños antes de que ocurran.

Recomendaciones de política

El marco de gobernanza de la IA en Guatemala debe abordar tres desafíos fundamentales: 1) establecer autoridad institucional; 2) definir regulaciones basadas en riesgos adaptadas a la capacidad local; y 3) garantizar la supervisión del sector privado a pesar de las dependencias de infraestructuras. Las siguientes recomendaciones proporcionan una hoja de ruta para abordar cada desafío mediante acciones escalonadas y realistas que reconocen las limitaciones de Guatemala y posicionan al país para el liderazgo en IA en Centroamérica.

Guatemala no debería esperar hasta que la Estrategia Nacional sobre Inteligencia Artificial sea aprobada en junio de 2026 para iniciar acciones regulatorias. Los retrasos en el establecimiento de estructuras de gobernanza harán cada vez más difícil responder e implementar las acciones necesarias a medida que los sistemas de IA continúen desplegándose tanto en el sector público como en el privado. Una autoridad nacional con un mandato claro puede proporcionar la base institucional para comenzar la regulación de inmediato, incluso mientras se está finalizando la estrategia más amplia. Esto podría posicionar a Guatemala como líder regional, ya que la mayor parte de América Latina aún no ha establecido marcos integrales de gobernanza de la IA.

Sin embargo, también es importante considerar las limitaciones de capacidad institucional para implementar regulaciones de forma eficaz. En ese sentido, la cuestión crítica es si Guatemala debería crear una autoridad completamente nueva en IA o aprovechar la capacidad institucional existente. La experiencia internacional sugiere que crear nuevos organismos reguladores puede ser menos factible y rentable que fortalecer las instituciones existentes con mandatos ampliados. Por ejemplo, las autoridades de competencia podrían abordar la concentración de mercado relacionada con la IA, y la autoridad de gobierno abierto podría ampliarse  

Restricciones legales e institucionales

Para Guatemala, el enfoque más pragmático es aprovechar la GAE, que ya lidera el desarrollo de estrategias de IA a través del proceso Evaluación del Panorama de la Inteligencia Artificial (AILA). En lugar de crear una nueva institución, la GAE debería contar con una unidad de IA con mandatos claros para la planificación, implementación de políticas y regulaciones (incluidas las clasificaciones por niveles de riesgo), y la coordinación entre el gobierno y el Congreso.

Sin embargo, el mandato actual de la GAE se limita al sector público. Monitorear y regular la IA en el sector privado requiere la aprobación del Congreso de una legislación de gobernanza de la IA que: 1) establezca el marco regulatorio fundamental (niveles de riesgo, requisitos de cumplimiento y usos prohibidos); y 2) otorgue a la GAE autoridad explícita y facultades de aplicación sobre el despliegue de la IA.

Esta legislación debe desarrollarse en coordinación entre el Congreso y el Ejecutivo, adaptándose a la capacidad institucional y a la estructura económica de Guatemala. Los usos de alto riesgo de IA (como el armamento, la vigilancia biométrica masiva, la justicia penal, la elegibilidad para la asistencia social y el acceso a créditos) requieren de una regulación estricta y vinculante o una prohibición total para salvaguardar los derechos y la confianza pública, independientemente de los desafíos de implementación. Las aplicaciones de bajo riesgo (como los filtros de spam, los videojuegos y los chatbots básicos) se adaptan mejor a los estándares voluntarios y a los códigos de conducta. Las tecnologías emergentes como los agentes de IA, aún no ampliamente desplegadas, deberían estar bajo el mandato de la GAE para desarrollar regulaciones específicas a medida que la tecnología madure.

Esta diferenciación refleja un principio de eficiencia regulatoria: la limitada capacidad técnica de Guatemala requiere concentrar los recursos de aplicación de la ley donde los riesgos son más altos. Las responsabilidades de la GAE deben ser orientadas al futuro con suficiente flexibilidad para adaptarse a los avances tecnológicos.

Usos prohibidos para Guatemala

Guatemala debería prohibir explícitamente el uso de la IA en los siguientes contextos donde los riesgos de sesgo y discriminación sean inaceptables:

  • Solicitudes de asistencia social sin supervisión humana (decisiones automatizadas sobre la elegibilidad para programas sociales).
  • Decisiones de crédito y préstamos que dependen únicamente de la evaluación algorítmica sin procesos humanos de revisión y apelación.
  • Evaluaciones de riesgo en la justicia penal o recomendaciones de sentencia.
  • Ciertos servicios públicos donde las decisiones automatizadas podrían negar el acceso a servicios esenciales (sanidad, educación u otros tipos de servicios).

Estas prohibiciones reconocen que, en contextos que afectan  derechos fundamentales y necesidades básicas, el riesgo de error algorítmico o sesgo es simplemente demasiado alto como para permitir una toma de decisiones totalmente automatizada, especialmente en un país con poblaciones que podrían verse afectadas por discriminación basada en el pueblo de pertenencia, sexo, sexualidad u otras características. Estos son algunos ejemplos, pero el Congreso debería debatir y analizar otros posibles usos de la IA que justifiquen su prohibición.

Coordinación institucional

Uno de los mayores peligros de la IA es el desempleo. Cómo afectará esto a Guatemala continúa siendo incierto, pero el gobierno debe estar preparado para cuando ocurra. Para acelerar la preparación institucional, propongo una comisión temporal creada por el Presidente que tendría un mandato específico: acelerar el desarrollo de planes estratégicos internos que definan las responsabilidades relacionadas con la IA de cada institución. Operando entre 6 y 12 meses, la comisión aclararía responsabilidades, evitaría duplicaciones y garantizaría acciones coordinadas respondiendo a preguntas críticas como: ¿qué institución supervisa la IA en los servicios financieros? ¿Quién supervisa la IA en el sector público? ¿Cómo coordinamos cuestiones transversales, como el riesgo de desempleo, que abarcan varios ministerios? ¿Quién supervisa los posibles ciberdelitos relacionados con IA?

El Ministerio de Trabajo y el Ministerio de Finanzas deberían tener la tarea específica de diseñar estrategias de respuesta para los peores escenarios laborales: que el desempleo aumente a nivel nacional debido al despliegue de la IA, y que el desempleo impulsado por la IA en los principales socios comerciales afecte económicamente a Guatemala. Estas evaluaciones de riesgos deben incluir consideraciones de ciberseguridad y desarrollarse en paralelo con el marco de gobernanza más amplio.

Por qué la supervisión del sector privado es esencial

La supervisión gubernamental del despliegue e implementación de los modelos de IA no es una preferencia administrativa: es una necesidad impulsada por la realidad de la infraestructura y la estructura económica de Guatemala. Como muchos países de la región, Guatemala carece de la infraestructura necesaria para construir sus propios modelos de IA y centros de datos. En su lugar, el país se basa en modelos basados en la nube alojados por proveedores extranjeros, principalmente de Estados Unidos y otros países desarrollados. Esta dependencia genera varios riesgos:

  • Brechas en la protección de datos: Es imprescindible que Guatemala avance en leyes nacionales sobre protección de datos, especialmente porque los modelos de IA ya utilizan la información de los ciudadanos y ciudadanas guatemaltecas con fines formativos sin marcos legales claros que regulen los derechos de consentimiento, uso o eliminación. Actualmente, no existe una ley integral de protección de datos en Guatemala, una brecha fundamental que debe abordarse junto con la regulación de la IA.
  • Pérdida de soberanía: Cuando los sistemas de IA que procesan datos sensibles sobre ciudadanos guatemaltecos operan sobre infraestructuras extranjeras bajo jurisdicción extranjera, surgen dudas sobre la capacidad de Guatemala para hacer cumplir sus leyes, realizar investigaciones o exigir rendición de cuentas cuando ocurren daños.
  • Seguimiento del cumplimiento: A medida que los modelos de IA avanzan y sus aplicaciones se expanden a dominios de alto riesgo (crédito, empleo, sanidad y justicia), Guatemala necesita capacidad institucional para verificar que tanto las empresas como los usuarios de IA cumplan con las regulaciones y leyes establecidas. Sin capacidades de supervisión y aplicación, las regulaciones se vuelven meramente aspiracionales.

Proporcionalidad a la realidad económica de Guatemala

Estas necesidades de supervisión deben equilibrarse con la estructura económica de Guatemala. En un país donde la gran parte de la economía es informal e innumerables pequeñas empresas operan con recursos limitados, regulaciones excesivamente complejas podrían crear barreras para la adopción de la IA. Guatemala también presenta un caso en el que pocos actores clave dominan el poder de mercado sobre las pequeñas empresas, una dinámica que la IA podría agravar si las regulaciones crean barreras de cumplimiento que solo las grandes empresas pueden superar.

Por ello, es crucial que el gobierno desarrolle reglas claras y simplificadas que permitan y no restrinjan el despliegue de la IA. Normas proporcionadas que rijan las actividades de IA pueden reducir la incertidumbre y crear condiciones para que empresas y consumidores  .

Este proceso tiene requisitos diferenciados:

  • Para grandes empresas y aplicaciones de alto riesgo: cumplimiento total de los requisitos de evaluaciones de impacto, auditoría y transparencia.
  • Para pequeñas y medianas empresas y aplicaciones de bajo riesgo: vías de cumplimiento simplificadas con plantillas estandarizadas, orientación sectorial específica, periodos de gracia para la implementación.
  • Para los actores de la economía informal: recursos educativos y herramientas voluntarias en lugar de cumplimiento obligatorio.

El objetivo es fomentar la innovación tanto de grandes como pequeñas empresas mediante normas que se apliquen de forma justa y proporcional, asegurando al mismo tiempo que el gobierno mantenga la capacidad de supervisión necesaria para proteger a los ciudadanos de los daños relacionados con la IA, independientemente de si esos sistemas se desarrollan en el país o se despliegan a través de infraestructuras en la nube extranjera.

Vía de implementación

La gobernanza de la IA en Guatemala debe implementarse mediante un enfoque por fases que equilibre la urgencia con la realidad institucional. En ese sentido, se reconoce una limitación fundamental: actualmente la GAE solo tiene autoridad sobre el sector público. La regulación integral requiere la aprobación del Congreso, pero se puede comenzar una acción significativa de inmediato.

Fase 1 (Meses 1-12): Fundación y desarrollo legislativo

La GAE puede actuar de inmediato sobre la IA gubernamental mientras busca la autorización legislativa para la regulación del sector privado.

Acciones ejecutivas inmediatas:

  • Establecer estructuras de gobernanza, requisitos de transparencia y medidas de rendición de cuentas para todos los sistemas gubernamentales de IA.
  • Crear una comisión temporal para coordinar entre los ministerios y clarificar los mandatos institucionales de IA.
  • Lanzar marcos voluntarios de cumplimiento para el sector privado,utilizando preferencias de contratación y el diálogo industrial para fomentar la adopción.
  • Establecer una pequeña oficina de seguridad de IA dentro de la GAE.
  • Implementar medidas de supervisión viables:
    • Registros de sistemas de IA para uso gubernamental y del sector privado voluntario.
    • Cláusulas de contratación del sector público que exijan transparencia y evaluaciones de impacto.
    • Mecanismos básicos de notificación de incidentes para fallos o discriminación de IA.

Desarrollo legislativo (crítico):

  • Proyecto de Ley de Protección de Datos que establece derechos de privacidad, requisitos de consentimiento y principios de gobernanza de datos.
  • Proyecto de Ley del Marco de Gobernanza de la IA que otorgue a la GAE la autoridad para regular la IA del sector privado, establecer registros obligatorios, supervisar, imponer sanciones y coordinarse con los reguladores sectoriales. Este proyecto de ley también debería incluir definiciones por niveles de riesgo y regulaciones básicas para el uso de IA de alto riesgo.
  • Realizar una amplia consulta con las partes interesadas para construir apoyo a la coalición.
  • Presentar la propuesta al Congreso en un plazo de 3 a 6 meses.

Fase 2 (Meses 13-24): Aprobación y ampliación legislativa

La aprobación por parte del Congreso de leyes fundacionales permite una regulación integral.

Regulación del sector privado (tras la aprobación legislativa):

  • Implementar registros obligatorios para sistemas de IA de alto riesgo.
  • Comenzar el seguimiento y la aplicación del cumplimiento.
  • Aplicar los requisitos de protección de datos a los sistemas de IA que procesan datos guatemaltecos.

Fortalecimiento de capacidades ampliado:

  • Formar a los reguladores sectoriales (banca, telecomunicaciones, salud) para desarrollar guías de IA específicas para cada uno.
  • Establecer paneles asesores técnicos que se basen en investigadores universitarios y expertos del sector privado.
  • Construir infraestructura de datos: registros, sistemas de informe y bases de datos de incidentes.

Coordinación institucional:

  • Establecer grupos de trabajo interministeriales regulares sobre cuestiones específicas de IA (impactos laborales, ciberseguridad, sesgos discriminatorios).
  • Crear protocolos claros para cuestiones de jurisdicción interinstitucional.
  • Formalizar los acuerdos de intercambio de datos entre entidades gubernamentales.
  • Establecer estándares de interoperabilidad y calidad de datos.

Fase 3 (Años 3-5): Implementación completa y madurez

Construir una capacidad regulatoria sofisticada a medida que se consolide la base.

Medidas regulatorias avanzadas:

  • Implementar regímenes integrales de certificación para IA de alto riesgo.
  • Establecer unidades especializadas de evaluación de IA.
  • Comenzar la aplicación de regulaciones con sanciones por incumplimiento.
  • Compartir las lecciones aprendidas y proporcionar asistencia técnica a otros países centroamericanos.

Este enfoque por fases   en lugar de proponer marcos integrales que superen la capacidad institucional desde el primer día. Guatemala no puede implementar inmediatamente una supervisión a nivel de la UE, pero puede comenzar con medidas fundacionales y construir con miras hacia una regulación sofisticada a medida que crezca la capacidad. El éxito requiere empezar inmediatamente con lo que es posible bajo la autoridad existente y, al mismo tiempo, construir lo necesario a futuro mediante acciones legislativas. La ventana para una gobernanza proactiva es breve, y retrasar significa regular los sistemas de IA ya desplegados en el sector público y privado y causar daño en lugar de prevenirlo.        

Conclusión

Guatemala se encuentra en un momento crucial en su relación con la inteligencia artificial. El análisis presentado en ambos blogs demuestra que los riesgos de la inacción regulatoria (discriminación algorítmica, disrupción económica, pérdida de soberanía de los datos y creciente desigualdad) no son ni abstractos ni distantes. Los sistemas de IA ya se están desplegando en Guatemala, pero el país opera sin leyes fundamentales de protección de datos, autoridad institucional clara para la supervisión de la IA, ni mecanismos para responsabilizar a las empresas cuando los sistemas de IA causan daños.

Para dejar atrás la falta de acción,  Guatemala tiene tanto la oportunidad como la base institucional para establecer una gobernanza proactiva de la IA que proteja a la población y permita la innovación responsable. La GAE ya lidera el desarrollo de una estrategia de IA. Con una mayor autoridad legislativa, recursos dedicados y acciones coordinadas entre ministerios gubernamentales, la GAE puede convertirse en el ancla institucional para una regulación integral de la IA. La vía de implementación por fases descrita en este blog ofrece una hoja de ruta realista que reconoce las limitaciones de Guatemala y posiciona al país para el liderazgo regional. La cuestión no es si Guatemala debería regular la IA, sino si lo hará de forma proactiva o reactiva.

El camino a seguir requiere la acción de múltiples partes interesadas:

  • El Ejecutivo debe demostrar liderazgo político estableciendo inmediatamente la comisión temporal, ordenando a laGAE iniciar actividades de gobernanza para la IA del sector público y defendiendo ante el Congreso la Ley de Protección de Datos y el Marco de Gobernanza de la IA. El liderazgo presidencial y vicepresidencial señalará que la gobernanza de la IA es una prioridad nacional, no solo un asunto técnico.
  • El Congreso debe priorizar la aprobación de la legislación fundamental sobre IA en un plazo de 18-24 meses, resistiendo las presiones de la industria para debilitar las disposiciones o retrasar su implementación.
  • El sector privado tiene la responsabilidad de participar constructivamente en el desarrollo de políticas, adoptar marcos voluntarios de cumplimiento mientras la legislación esté pendiente y reconocer que las regulaciones claras reducen la incertidumbre y permiten una adopción responsable de la IA. Las empresas que adopten la transparencia, las evaluaciones de impacto y las protecciones de los derechos humanos obtendrán ventajas competitivas a medida que madure el marco regulatorio de Guatemala.
  • Las organizaciones de la sociedad civil deben participar activamente en consultas políticas, supervisar la implementación y abogar por la inclusión de las poblaciones marginadas.
  • Socios internacionales, incluidos el Banco Interamericano de Desarrollo, el Banco Mundial, el PNUD y la UNESCO, pueden acelerar el progreso de Guatemala proporcionando asistencia técnica para la redacción legislativa, el fortalecimiento de capacidades para reguladores y apoyo financiero al desarrollo institucional. La coordinación regional con Chile, Colombia y otros países latinoamericanos que persiguen marcos de gobernanza similares ofrece oportunidades para el aprendizaje compartido.

El éxito de Guatemala en la gobernanza de la IA no se medirá por la sofisticación de sus marcos regulatorios sobre papel, sino por resultados tangibles: ¿pueden los sistemas algorítmicos desplegarse de formas que reduzcan en lugar de agravar la desigualdad? ¿Pueden los trabajadores hacer la transición hacia nuevas oportunidades a medida que la IA transforma los mercados laborales? ¿Puede Guatemala mantener la soberanía y la autoridad legal de los datos incluso cuando depende de infraestructuras de nube extranjeras? ¿Puede el país posicionarse como líder regional? Estos resultados son alcanzables, pero solo mediante un compromiso sostenido a partir de ahora.

los sistemas de IA como tal aun no estan desplegados en el sentido de que no estan tomando decisiones que afecten a las personas de forma directa, por ejemplo, a nivel de estado o bancos que usen AI en lugar de que alguien decida sobre el acceso de una persona a credito a un programa social

Diseño sin título
Ana Sáenz de Tejeda

Contenidos Relacionados