El abogado australiano se disculpa después de que la IA ha generado citas falsas en el caso de asesinato

Por & nbspEuronews
Publicado en
PUBLICIDAD
Un abogado tuvo que disculparse después de que la IA había creado citas falsas e inventó juicios en las presentaciones que había presentado frente a un tribunal australiano en un caso de asesinato.
El defensor Rishi Nathwani, quien tiene el prestigioso título legal del abogado de King, asumió "plena responsabilidad" por la presentación de información falsa en los envíos en caso de un adolescente acusado de asesinato frente a la Corte Suprema del Estado de Victoria en Melbourne.
"Estamos profundamente lamentando y avergonzados de lo que sucedió", dijo Nathwani al juez James Elliott a nombre del equipo de defensa en nombre del equipo de defensa.
Las presentaciones falsas incluyeron citas inventadas de un discurso a la legislatura estatal y citas de casos no existentes que supuestamente están disponibles en la Corte Suprema.
Los errores fueron descubiertos por los empleados de Elliott que no pudieron encontrar los casos y pidieron que los abogados defensores pudieran ofrecer copias.
Los abogados admitieron que las citas "no existen" y que la presentación contenía "citas ficticias", según documentos judiciales.
Los abogados dijeron que habían revisado y asumieron las primeras citas que los demás eran precisamente.
Los errores generados por la IA causaron un retraso de 24 horas en la resolución de un caso que Elliott había completado el miércoles.
El juez Elliott decidió el jueves que el cliente de Nathwanis, que no puede ser identificado porque es menor de edad, no era culpable de asesinato debido a la discapacidad intelectual.
"A riesgo de un eufemismo, la forma en que se han desarrollado estos eventos no es satisfactorio", dijo Elliott a los abogados el jueves. "La capacidad del tribunal para confiar en la corrección de las presentaciones proporcionadas por el abogado es de importancia fundamental para la debida administración del poder judicial".
Las presentaciones también fueron enviadas al fiscal Daniel Porceddu, quien no verificó su precisión.
El juez determinó que la Corte Suprema publicó pautas para el uso de abogados KI el año pasado.
"No es aceptable que se use la inteligencia artificial, a menos que el producto de este uso sea independiente y se verifique completamente", dijo Elliott.
No es el primer caso de la lucio de la sala de la corte de IA
En un caso comparable en los Estados Unidos en 2023, un juez federal impuso a dos abogados y un bufete de abogados después de que ChatGPT fue responsable de presentar una investigación legal ficticia en reclamos de lesiones por aviación.
El juez P Kevin Castel dijo que habían actuado con el mal, pero aceptó sus disculpas y medidas correctivas en lugar de un castigo más difícil.
Más adelante este año, los abogados, un ex abogado personal del presidente de los Estados Unidos, Donald Trump, fueron presentados en documentos legales que fueron presentados por AI inventados por AI.
Cohen culpó y dijo que no se dio cuenta de que la herramienta Google, que utilizó para la investigación legal, también pudo hacer las llamadas alucinaciones de IA.
La Corte Suprema de la Corte Británica, Victoria Sharp, advirtió en junio que la provisión de materiales falsos, como si fuera real, como un desprecio para la corte o en los "casos más escandalosos" del poder judicial, que tiene una sentencia máxima de prisión en prisión.
En una sentencia regulatoria, después de docenas de falsas citas falsas falsas en Gran Bretaña, Sharp dijo que el tema "efectos graves en … confianza pública en el sistema judicial cuando se abusa de la inteligencia artificial".
Fuentes adicionales • AP