Como contó El Litoral días atrás, a través del decreto provincial 2726/2025, el gobierno de Santa Fe aprobó un protocolo para el uso de Inteligencia Artificial Generativa en la Administración Pública provincial.
El Estado santafesino promueve la transparencia y equidad en el uso de IA, asegurando que las herramientas sean explicables y libres de sesgos discriminatorios.

Como contó El Litoral días atrás, a través del decreto provincial 2726/2025, el gobierno de Santa Fe aprobó un protocolo para el uso de Inteligencia Artificial Generativa en la Administración Pública provincial.
El documento define a la IA como “sistemas basados en máquinas que pueden, para un conjunto determinado de objetivos definidos por humanos, hacer predicciones, recomendaciones o tomar decisiones que influyan en entornos reales o virtuales”.
En ese sentido, vale la pena rescatar tres puntos claves para conocer cómo funcionarán estos procesos en los distintos sectores administrativos del Estado provincial.
La Supervisión Humana Significativa y Competente es un requisito indispensable en todo el proceso de uso de la IAG.
Carácter No Vinculante: La producción generada por un sistema de IAG tiene siempre el carácter de insumo o propuesta preliminar no vinculante.
Validación Obligatoria: Para que el resultado adquiera eficacia jurídica o pueda ser utilizado en un procedimiento administrativo, se requiere la validación expresa y el juicio profesional por parte del agente público responsable.
Propósito de la Supervisión: La supervisión busca garantizar la calidad, pertinencia y legalidad de los resultados, así como identificar, mitigar y corregir sesgos o errores.
Capacitación: La supervisión debe ser ejercida por personal que haya recibido la alfabetización y capacitación adecuada en IA.
Límites a la Automatización: Si las herramientas de IAG permiten diseñar o ejecutar flujos complejos (agentes autónomos), el agente debe asegurarse de que su autonomía funcional no sustituya el ejercicio legítimo de competencias administrativas. Se debe identificar claramente qué pasos del flujo requieren intervención humana sustantiva o validación jerárquica.
Uso de Herramientas No Institucionales: Incluso al usar herramientas de IAG de acceso público, el agente público debe aplicar la Supervisión Humana Significativa y Competente para corroborar rigurosamente la exactitud, veracidad y pertinencia de toda la información obtenida antes de su utilización
El protocolo se guía por varios principios éticos fundamentales destinados a asegurar que el uso de la IAG esté centrado en el ser humano y el bien común
Principio de Centralidad Humana: Los sistemas de IA se conciben como herramientas al servicio de las personas y de la consecución del bien común, debiendo centrarse en el respeto irrestricto de sus derechos.
Principio de Transparencia y Explicabilidad: Todo sistema de IAG debe ser transparente, explicable y auditable. La exigencia de explicabilidad se aplica de manera proporcional al riesgo y al impacto potencial en los derechos y libertades fundamentales de los ciudadanos.
El agente público debe poder exponer la lógica general del sistema, los criterios y parámetros aplicados al caso individual, utilizando un lenguaje claro y sencillo.
Principio de Equidad y No Discriminación: El Estado debe tender a garantizar la inclusión y la equidad, reduciendo sesgos no deseados. El agente público tiene un rol activo e indelegable en la mitigación de sesgos, lo que incluye:
Formular consultas (prompts) responsables y neutrales, evitando introducir supuestos o términos que puedan inducir al sistema a reproducir estereotipos o sesgos, especialmente aquellos basados en género, raza u otra circunstancia discriminatoria.
Ejercer la supervisión para la detección y corrección rigurosa de cualquier resultado que reproduzca estereotipos inaceptables.
Principio de Protección de Datos y Privacidad: Se deben observar los principios de licitud, minimización de datos y responsabilidad proactiva. El agente debe verificar rigurosamente la naturaleza de los datos e implementar siempre técnicas de anonimización o seudonimización antes de interactuar con herramientas de IAG no institucionales.
Se debe priorizar el uso de herramientas oficiales que garanticen la confidencialidad y la no reutilización de las consultas para entrenamiento.
La legalidad se asegura mediante la atribución clara de responsabilidades, la trazabilidad y la observancia de las normativas vigentes.
Responsabilidad y Rendición de Cuentas: Los agentes públicos son individualmente responsables por el uso de las herramientas de IAG y por los resultados que validan e incorporan a los actos administrativos. La responsabilidad final por la decisión o acto administrativo recae de forma exclusiva e indelegable en dicho agente.
Trazabilidad: Se establecerán mecanismos de control y estructuras de gobernanza que aseguren la observancia de las obligaciones, permitiendo la trazabilidad de las acciones y la atribución de responsabilidades.
Cumplimiento Normativo: El uso de IAG debe alinearse con la normativa de protección de datos personales vigente. Además, la configuración o uso de soluciones de IA debe asegurar su compatibilidad con los principios de legalidad y competencia institucional.
Límites en el Uso de Herramientas No Institucionales: Está terminantemente prohibido introducir en Herramientas No Institucionales cualquier dato personal, información sensible, clasificada, confidencial o que no sea de dominio público. El agente debe sustituir dicha información por datos genéricos mediante técnicas de anonimización.
Transparencia Proporcional (Deber de Notificación): El agente público está obligado a incluir una mención clara y notoria sobre la utilización de la IAG si su asistencia ha sido sustancial para la producción de contenidos que involucren juicio, análisis, argumentación jurídica o que constituyan el fundamento material de un acto administrativo con impacto decisional.
Este deber es obligatorio en documentos que creen, modifiquen o restrinjan derechos de los ciudadanos.
En esencia, el protocolo opera como un sistema de doble chequeo legal y ético. Si la IAG fuera un coche autónomo, el protocolo asegura que el agente público siempre esté al volante (Supervisión Humana), que las rutas elegidas sean justas y seguras (Ética: Equidad y Privacidad), y que, en caso de accidente o infracción, la multa sea para el conductor (Legalidad: Responsabilidad indelegable).
El protocolo




