La Caja de Pandora Algorítmica: IA y el Desafío Jurídico en Guatemala
“La Inteligencia Artificial (IA) ha dejado de ser una promesa de ciencia ficción, para convertirse en un actor jurídico con consecuencias legales tangibles”
Por: Lic. Deyvin René Carrillo López / Abogado y Notario
El Nuevo Sujeto de la Administración Pública
La Inteligencia Artificial, cada día toma más relevancia en diferentes espacios de las personas, y lo observamos que a medida que delegamos decisiones críticas —desde la evaluación de créditos hasta la gestión de datos públicos y la priorización de ayuda social— a algoritmos de «caja negra», el Derecho se enfrenta a un desafío existencial: ¿Cómo responsabilizar a una entidad sin conciencia por daños a la dignidad humana?
La automatización no puede ser un cheque en blanco para la opacidad estatal. Estamos ante el nacimiento del Acto Administrativo Algorítmico, una figura que exige que la voluntad del Estado, aunque sea expresada por un software, siga sometida al imperio de la razón y la legalidad.
- El Vacío Normativo y la Arbitrariedad Tecnológica
La falta de una normativa específica en Guatemala genera un vacío que puede derivar en una nueva forma de arbitrariedad administrativa. En la gestión pública, el uso de sistemas autónomos para la asignación de programas sociales o la evaluación de contratistas bajo criterios de «calificación de riesgo» puede dar lugar a una discriminación algorítmica sistémica, donde sesgos invisibles en el código penalizan a sectores históricamente vulnerables.
Sin una supervisión humana efectiva, corremos el riesgo de vulnerar el Debido Proceso Digital:
- El Derecho de Petición y Respuesta: La respuesta estatal no puede ser un «error de sistema». El artículo 28 de la Constitución Política de la República de Guatemala, exige una resolución de fondo; un algoritmo que deniega un derecho sin motivación humana incumple este mandato, es decir la debida fundamentación del acto.
- La Motivación del Acto Administrativo: Todo acto que afecte derechos debe estar motivado. Si un funcionario no puede explicar la lógica detrás de la decisión de una IA, el acto es nulo de pleno derecho por carecer de una fundamentación lógica y legal auditable, dejando al administrado en un estado de indefensión técnica.
- El Espejo de la Unión Europea: Clasificación de Riesgos y el «Efecto Bruselas»
Mientras Guatemala navega en la incertidumbre, la Unión Europea marcó un hito con la Ley de IA (AI Act), estableciendo un estándar global de protección. Este marco no prohíbe la tecnología, sino que la regula mediante un enfoque basado en el riesgo para la seguridad y los derechos fundamentales:
- Riesgo Inaceptable: Prohíbe sistemas de «puntuación social» que clasifiquen a los ciudadanos por su comportamiento, una amenaza latente para las libertades individuales.
- Riesgo Alto: IA aplicada en salud, educación, infraestructura crítica o gestión de fronteras. Aquí, el reglamento exige gestión de riesgos, trazabilidad de datos y transparencia técnica, asegurando que los sistemas sean precisos y robustos frente a ataques o errores.
- Transparencia en la Generación: Obliga a etiquetar contenidos generados por IA, una herramienta vital para combatir la desinformación y las deepfakes que amenazan la integridad de los procesos democráticos y la fe pública.
- El Caso de Guatemala: La Vulnerabilidad en la Era del Big Data
En nuestro contexto, el desafío es doble y presenta una paradoja jurídica. Es imperativo reconocer que Guatemala ha realizado esfuerzos loables en la creación de leyes modernas, siendo la Ley de Simplificación de Requisitos y Trámites Administrativos (Decreto 5-2021) el ejemplo más reciente. Esta normativa ha sentado las bases para la digitalización y ha derribado barreras burocráticas históricas; sin embargo, en la era del procesamiento masivo de información, esto no es suficiente.
La simplificación administrativa se enfoca en la forma y la celeridad del trámite, pero deja desatendido el fondo ético y protector del dato. Al agilizar la captura y el flujo de información entre instituciones, el Estado guatemalteco está construyendo una «autopista de datos» sin tener aún el «código de circulación» (una Ley de Protección de Datos Personales integral) que evite colisiones contra la privacidad. Sin este marco de Habeas Data moderno, la IA puede recolectar y procesar perfiles ciudadanos de manera masiva, creando una vulnerabilidad donde la eficiencia se convierte en una herramienta de vigilancia o discriminación descontrolada.
Si bien la Constitución Política de Guatemala, en su artículo 44, establece que los derechos fundamentales no son limitativos y que los derechos inherentes a la persona deben protegerse, la aplicación de este principio a la IA requiere de una labor jurisprudencial activa por parte de la Corte de Constitucionalidad. Es necesario que la Corte de Constitucionalidad de Guatemala, reconozca que el procesamiento de Big Data no es un simple tema administrativo, sino una extensión del derecho a la intimidad y a la autodeterminación informativa. No basta con que el trámite sea «simple» y «digital»; debe ser, ante todo, seguro y respetuoso de la dignidad humana. La modernización del Estado no puede ser un fin en sí mismo, sino un medio que garantice que la tecnología sirva al ciudadano y no que el ciudadano se convierta en un simple insumo algorítmico.
- Pilares para una Ruta Crítica de Regulación en Guatemala
Para que la innovación no colisione con el humanismo, propongo tres pilares fundamentales que deben regir cualquier intento de regulación o implementación tecnológica en el Estado:
- Transparencia y Explicabilidad (Derecho al Algoritmo): El ciudadano tiene el derecho humano a conocer la «lógica del algoritmo». El Principio de Publicidad de los actos administrativos debe extenderse al código fuente cuando este decide sobre derechos ciudadanos. La opacidad no puede ser protegida por «secretos comerciales» cuando se trata de fondos o funciones públicas.
- Responsabilidad Civil e Imputabilidad: Debemos definir el nexo causal en la era digital. La impunidad técnica no puede ser la norma; el Estado debe ser responsable por los errores de los sistemas que adquiere y pone en funcionamiento.
- Supervisión Humana Permanente (Human-in-the-loop): La tecnología debe asistir al humano, no sustituir su juicio moral y legal. Ninguna decisión que limite derechos fundamentales puede ser delegada íntegramente a un software; la «última firma» siempre debe pertenecer a un funcionario responsable que valide el criterio técnico.
La Defensa del Humanismo Jurídico
En conclusión, regular la IA en Guatemala no es un simple ejercicio técnico, es una defensa del humanismo frente a la tecnocracia fría. El Derecho guatemalteco debe evolucionar de un modelo reactivo a uno preventivo, transformándose en una barrera contra la arbitrariedad automatizada; el primer paso ya se dio, la Ley de Simplificación de Requisitos y Trámites Administrativos (Decreto 5-2021), es un acto significativo, pero insuficiente.
Necesitamos fortalecer el cimiento legal sobre la privacidad y la ciberseguridad antes de intentar regular la inteligencia que procesa esos datos. Solo así garantizaremos que la modernización del Estado sea un instrumento para la Justicia Social y la Certeza Jurídica, asegurando que en la era de los algoritmos, la persona humana siga siendo el centro y fin supremo del Estado.
Referencias:
Referencia: Parlamento Europeo. (2024). Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo, por el que se establecen normas armonizadas sobre inteligencia artificial.
Referencia: UNESCO. (2021). Recomendación sobre la Ética de la Inteligencia Artificial. París, Francia.
