Ir al contenido principal

Anonimización de textos en forma previa a remitir documentos a chatbots o agentes de inteligencia artificial

Puede ver el video:

https://youtu.be/o4pU_PkojRw

O bien continuar leyendo...

El Uso Responsable de la Inteligencia Artificial en la Administración de Justicia: Protegiendo la Privacidad en la Era Digital

Herramientas relevantes

1. Meta AI de WhatsApp. Resetear los mensajes de una conversación o bien de todas las conversaciones.

En una conversación introducir el mensaje /reset-ai Se recibe un mensaje de respuesta:

"The AI will be reset to its default state. The AI's copy of this conversation will be deleted from Meta servers."

También es posible introducir el mensaje /reset-all-ai - Se recibe el mensaje:

Let's start fresh. What's on your mind?

2. ChatGPT (OpenAI)

Modo incógnito/temporal:

OpenAI ofrece la opción de eliminar el historial de chat en ChatGPT. Cuando se activa esta función las conversaciones se eliminan del historial. Las políticas de ChatGPT indican que las conversaciones eliminadas se preservan por 30 días por razones de seguridad y luego se eliminan completamente.

Cómo activarlo:

Ve a Configuración (icono de tu cuenta → "Settings").

En "Delete all chats", oprimir botón rojo "Delete all".

También puedes usar el modo "Temporary Chat" (Chat Temporal) directamente en la interfaz, al lado del ícono de la cuenta aparece el botón [Temporary].

Disponible para usuarios gratuitos y de pago (ChatGPT Plus).

3. gemini.google.com

Arriba a la izquierda tres rayitas horizontales (ícono hamburguesa) para desplegar las conversaciones actuales.

Luego, abajo a la izquierda Actividad.

Botón [Eliminar] > Desde siempre.

Complementariamente puede configurarse para que se elimine la actividad que posee más de tres meses de antiguedad.

O bien seleccionar la opción: Actividad en las aplicaciones Gemini > [Desactivar]

4. Duck.ai

"Your chats are private, and are never saved or used to train AI models"

No sería necesario efectuar configuración alguna.

5. grok.com

CTRL + SHIFT + J : Switch to private chat

CTRL + J: Switch to default chat.

Ve a Configuración (icono de tu cuenta → "Settings") > Data Controls

Desmarcar: Improve the Model

Desmarcar: Personalize Grok with your conversation history.

Delete All Conversations

6. Claude.ai

How we protect your data

By default, Anthropic doesn’t train our generative models on your conversations. 

Anthropic doesn’t sell your data to third parties.

Anthropic deletes your data promptly when requested, except for safety violations or conversations you’ve shared through feedback. 

7. chat.deepseek.com

Ve a Configuración (icono de tu cuenta → "Settings") > Profile

Desmarcar la casilla: Improve the model for everyone. Allow your content to be used to train our models and improve our services. We secure your data privacy.

Abajo se encuentra el botón rojo: Delete all chats [Delete all]

8. perplexity.ai

Ve a Configuración (icono de tu cuenta → "Settings") > Preferences

Desmarcar la casilla: AI data retention

AI Data Retention allows Perplexity to use your searches to improve AI models. Turn this setting off if you wish to exclude your data from this process.



En un mundo cada vez más impulsado por la tecnología, la inteligencia artificial (IA) se ha convertido en una herramienta poderosa para optimizar procesos en diversos sectores, incluyendo la administración de justicia. Sin embargo, su implementación plantea desafíos significativos en términos de privacidad y protección de datos, especialmente cuando se trata de información confidencial como las decisiones judiciales. La reciente Resolución 206 del año 2025 aborda estos desafíos, estableciendo directrices claras para el uso responsable de la IA en el ámbito judicial, con un enfoque particular en la protección de datos personales y la anonimización de documentos sensibles.

Este artículo explora las implicaciones de esta resolución y presenta dos enfoques clave para cumplir con sus requisitos: el uso de herramientas de IA locales y la anonimización de datos para su procesamiento en la nube. Ambos métodos buscan equilibrar los beneficios de la IA con la necesidad imperativa de salvaguardar la privacidad en el sistema judicial.

Contexto de la Resolución 206/2025

La Resolución 206/2025 surge en respuesta a la creciente adopción de sistemas de IA en la administración de justicia. Si bien estas tecnologías prometen mejorar la eficiencia y la precisión en el análisis de documentos legales, también plantean riesgos significativos para la privacidad. Documentos judiciales, como sentencias en casos de familia, penales o civiles, a menudo contienen información personal sensible que no debe ser expuesta a terceros no autorizados.

La resolución hace hincapié en dos puntos cruciales:

Protección de datos personales: Los sistemas de IA utilizados en la justicia deben garantizar la seguridad de los datos personales procesados.

Anonimización de decisiones judiciales: Antes de utilizar herramientas de IA, especialmente aquellas basadas en la nube, los documentos deben ser anonimizados para eliminar cualquier información que pueda identificar a las partes involucradas.

La resolución advierte específicamente contra la entrega de documentos confidenciales a chatbots en la nube, como ChatGPT, GROK o Gemini, sin previa anonimización. Esto se debe a que estos servicios procesan los datos en servidores externos, lo que podría comprometer la confidencialidad de la información.

Dos Enfoques para el Uso Responsable de la IA

Para cumplir con las directrices de la resolución, se presentan dos alternativas principales: el uso de herramientas de IA locales y la anonimización de datos para su procesamiento en la nube. Cada enfoque tiene sus propias ventajas y desafíos, y la elección entre uno u otro dependerá de los recursos disponibles y las necesidades específicas del caso.

1. Uso de Herramientas de IA Locales

La primera opción consiste en ejecutar modelos de IA directamente en una computadora local, desconectada de internet. Esto garantiza que la información sensible nunca abandone el entorno controlado del usuario, eliminando el riesgo de exposición a servidores externos.

Ventajas:

Privacidad total: Al procesar los datos localmente, se evita cualquier riesgo de fuga de información a la nube.

Control completo: El usuario tiene control total sobre el hardware y el software utilizados, lo que permite personalizar el entorno según las necesidades específicas.

Desafíos:

Requisitos de hardware: Ejecutar modelos de IA potentes requiere hardware avanzado, como GPUs con suficiente memoria (por ejemplo, una NVIDIA RTX 3060 con 12 GB de VRAM). Esto puede ser costoso y no siempre accesible.

Limitaciones en el procesamiento de documentos grandes: Los modelos locales pueden tener dificultades para procesar documentos extensos debido a limitaciones en la cantidad de tokens (unidades de texto) que pueden manejar simultáneamente. Esto puede llevar a que partes del documento sean truncadas, omitiendo información crucial.

Para mitigar este problema, se pueden utilizar herramientas complementarias como LanChain, Konoyama, Kudrant y Chroma. Estas herramientas permiten dividir el documento en fragmentos más pequeños (chunks) y procesarlos de manera eficiente, asegurando que el contexto completo sea considerado al generar respuestas. Por ejemplo, un documento puede ser dividido en secciones de 1000 caracteres con un solapamiento de 200 caracteres para mantener la coherencia contextual.

Ejemplo Práctico:

Consideremos una sentencia judicial que, aunque pública, tratamos como confidencial para este ejercicio. El primer paso es extraer el texto del PDF, lo cual en Linux se puede hacer con comandos como pdftotext. Luego, se utiliza un modelo local como DeepSeek (14 mil millones de parámetros) o Gema 3 (12 mil millones de parámetros), que pueden ejecutarse en una computadora con una GPU de 12 GB. Sin embargo, si el documento es extenso, el modelo podría truncarlo. Al emplear herramientas como Chroma, el texto se divide en fragmentos, permitiendo que el modelo procese toda la información y responda preguntas específicas, como identificar el sitio web de una parte en la sentencia (por ejemplo, "remax.com.ar").


2. Anonimización de Datos para el Uso de Herramientas en la Nube

La segunda opción es anonimizar los documentos antes de utilizar herramientas de IA basadas en la nube. Este enfoque permite aprovechar la potencia de los modelos más avanzados disponibles en plataformas como Google Studio, GROK o Gemini, sin comprometer la privacidad.

Ventajas:

Acceso a modelos más potentes: Las plataformas en la nube suelen ofrecer modelos de IA más avanzados y con mayor capacidad de procesamiento que los disponibles localmente.

Facilidad de uso: No se requieren recursos de hardware locales avanzados, ya que el procesamiento se realiza en la nube.

Desafíos:

Proceso de anonimización: La anonimización debe ser exhaustiva para garantizar que no queden datos personales identificables. Esto puede ser un proceso manual tedioso o requerir herramientas automáticas especializadas.

Riesgo residual: Aunque se anonimice el documento, siempre existe un riesgo mínimo de que la información pueda ser reidentificada, especialmente si no se realiza correctamente.

La anonimización puede realizarse de dos maneras:

Manual: El usuario revisa el documento y reemplaza manualmente la información sensible (nombres, direcciones, números de identificación) con placeholders como "persona", "lock" o "número".

Automática: Herramientas como Estanza pueden identificar y anonimizar automáticamente entidades como personas, lugares y números, utilizando técnicas de procesamiento de lenguaje natural (NLP).

Una vez anonimizado, el documento puede ser cargado en plataformas de IA en la nube para realizar tareas más complejas, como la redacción de recursos de apelación o el análisis jurídico detallado.

Ejemplo Práctico:

Tomemos la misma sentencia y anonimicémosla. Manualmente, podríamos reemplazar nombres como "Eduardo Malbrán" por "persona" y números de DNI por "DNI". Automáticamente, con una herramienta como Estanza, se identifican y ocultan personas, lugares y números largos (por ejemplo, DNI o expedientes). El documento anonimizado se carga luego en Google Studio, donde un modelo como Gemini 2.5 puede redactar un recurso de apelación sin que la información confidencial llegue a servidores externos.

La Importancia del Cumplimiento

La Resolución 206/2025 no solo establece directrices, sino que también subraya la responsabilidad ética y legal de los profesionales del derecho al utilizar IA. Entregar documentos confidenciales a servidores de terceros sin anonimización podría constituir una violación de la privacidad y, en algunos casos, incurrir en sanciones legales.

Por lo tanto, es crucial que los actores del sistema judicial adopten prácticas responsables al integrar la IA en sus flujos de trabajo. Esto incluye:

Evaluar cuidadosamente si un documento requiere anonimización antes de su procesamiento.

Utilizar herramientas locales cuando sea posible, especialmente para documentos altamente sensibles.

Asegurarse de que cualquier herramienta de anonimización automática sea confiable y esté actualizada.

Conclusión

La inteligencia artificial ofrece oportunidades sin precedentes para mejorar la eficiencia y la precisión en la administración de justicia. Sin embargo, su uso debe equilibrarse con la protección de la privacidad y la confidencialidad de la información personal. La Resolución 206/2025 proporciona un marco claro para el uso responsable de la IA, destacando la importancia de la anonimización y el procesamiento local de datos sensibles.

Al adoptar enfoques como el uso de IA local o la anonimización rigurosa para herramientas en la nube, los profesionales del derecho pueden aprovechar los beneficios de la tecnología sin comprometer los derechos fundamentales de las personas. En última instancia, el uso responsable de la IA no solo es una cuestión de cumplimiento normativo, sino también de mantener la confianza en el sistema judicial en la era digital.

Comentarios