Abogada sancionada por usar citas falsas de IA
Abogada sancionada por usar citas falsas de IA
Recibe noticias al instante en WhatsApp
¿Cómo detectó el tribunal las alucinaciones legales?
Una disputa por la custodia de una mascota en el condado de San Diego terminó en una sanción histórica contra la abogada Roxanne Chung Bonar. La jurista fundamentó su defensa en dos precedentes jurídicos que resultaron ser inexistentes, generados por una inteligencia artificial. El error salió a la luz durante la fase de apelación, cuando la contraparte descubrió que los casos citados eran ficticios o carecían de relación con el bienestar animal. Ante esta falta, la Corte de Apelaciones del Cuarto Distrito impuso una multa de 5,000 dólares a la letrada, subrayando que la dependencia en herramientas tecnológicas no exime de la responsabilidad de verificar las fuentes.
Profundiza este contenido con: Project Maven: Inteligencia Artificial en el conflicto iraní
Riesgos de la automatización en el sistema judicial
¿Qué implicaciones tiene el uso de IA para los jueces?
El fallo incluyó una advertencia dirigida tanto a litigantes como a funcionarios judiciales sobre la proliferación de citas apócrifas. La abogada admitió que recurrió a sistemas de IA y foros en línea por no contar con suscripciones a bases de datos legales profesionales. Este incidente evidencia la vulnerabilidad del sistema, ya que inicialmente ni la jueza de primera instancia ni el personal del tribunal detectaron la anomalía. Según expertos de la Universidad de San Diego, este caso marca un precedente sobre la obligación afirmativa de validar cada documento presentado, pues la IA puede fabricar argumentos persuasivos que engañan incluso a profesionales experimentados.
A pesar del fraude procesal, el tribunal decidió no revocar la sentencia original de custodia, argumentando que el resultado jurídico habría sido el mismo sin las citas falsas. No obstante, la Barra Estatal de California ya monitorea estos eventos para aplicar sanciones disciplinarias. Las autoridades reconocen que, aunque la IA agiliza la síntesis de información, su capacidad para alucinar datos pone en riesgo la integridad de la justicia. Actualmente, los juzgados californianos buscan implementar mecanismos de revisión más rigurosos, aceptando que ningún sistema, humano o algorítmico, es infalible frente a la desinformación tecnológica.
🚀 Si buscas mantenerte al día con las noticias nacionales e internacionales más relevantes 🌐
