Protección Data

BLOG

El conocimiento es poder (Francis Bacon)

Blog
Compartir Facebook Twitter Linkedin
JAVIER CASAL TAVASCI

ChatGPT y Abogacía

En junio de 2021 publiqué un artículo en este blog sobre el futuro de la Abogacía que dejo enlazado aquí. Un futuro que estará vinculado a la inteligencia artificial. 

Decía en aquel artículo que el gran cambio que se avecina en la Abogacía vendrá de la mano de la inteligencia artificial que traerá consigo:

  • Plataformas que permitirán, mediante chatbots, responder a ciertas consultas con un lenguaje comprensible de forma sorprendentemente rápida.
  • Automatización en la creación de documentos legales a partir de un diálogo interactivo entre el software y el usuario.
  • Revisión de documentación con relevancia jurídica, a través de mecanismos automatizados, en procesos de due diligence.
  • Herramientas de analítica predictiva a partir de información estadística sobre posibilidades de éxito de acciones judiciales en tribunales concretos.
  • Sistemas de codificación predictiva para seleccionar automáticamente cualquier tipo de material electrónico relevante en un proceso judicial.
  • Sistemas de negociación automatizada para la resolución alternativa de conflictos.

Una de esas plataformas que puede ser artificie del cambio es ChatGPT. Se trata de un modelo de inteligencia artificial basado en algoritmos de inteligencia artificial generativa o LLM (Large Language Model). 

Dichos algoritmos están diseñados para emular la forma en que la que el cerebro humano procesa la información. Las redes neuronales analizan grandes cantidades de datos. De modo que, cuanto mayor sea la cantidad de datos proporcionados, más precisos serán los resultados generados. Si los datos son limitados, sesgados o no representativos, las respuestas no serán certeras. La cantidad, la calidad y la variedad de los datos proporcionados es fundamental para entrenar a los algoritmos y lograr resultados certeros.

ChatGPT   

La empresa OpenAI, con sede en California (EE.UU.), se fundó en el año 2015, entre otros, por Elon Musk, Reid Hoffman y Sam Altman, con el apoyo financiero de Microsoft, que ha invertido más de mil millones de dólares para desarrollar ChatGPT. 

El algoritmo que utiliza ChatGPT es capaz de responder con un lenguaje sorprendentemente natural a cualquier pregunta. Lo que diferencia a ChatGPT de otros chats conversacionales es que no responde sobre la base de un conjunto de comandos predeterminadas, sino que sus respuestas surgen del aprendizaje automático a partir de una inmensidad de datos que provienen de diferentes fuentes. 

Su funcionamiento es realmente sencillo. Basta con que el usuario le formule una pregunta de manera convencional para que el algoritmo le ofrezca una respuesta rápida, coherente y con una sintaxis casi perfecta. 

Bing Chat (GPT-4.0)

Microsoft ha incorporado a su buscador Bing la versión GPT-4.0. Veamos la evolución entre dicha versión y la anterior.

Empecemos por una consulta sencilla en el campo de la Abogacía: Qué trámites hay que hacer para un divorcio de mutuo acuerdo sin hijos en España. Vean que no empleo signos de interrogación, aun así, el algoritmo entiende que es una pregunta. La respuesta de ChatGPT 3,5 fue la siguiente:

La respuesta no es correcta. Formulemos la misma pregunta al chat de Bing, aún más esquematizada para complicar la cosa. La respuesta cambia y mucho.

La respuesta que ofrece Bing, si bien escueta y con matices, es acertada.

Ahora, vamos a preguntarle sobre la documentación que hay que tener para presentar una demanda de divorcio de mutuo acuerdo. ChatGPT 3,5 responde:

La respuesta no es acertada. Veamos que responde Bing:

Esta vez la respuesta va por mejor camino, aunque no es acertada del todo. Pensemos que el algoritmo no está entrenado para dar respuestas a consultas jurídicas, de ahí, la imprecisión. Por el momento no es de fiar y requiere de supervisión humana.

El salto cualitativo se notará cuando el algoritmo se entrene con datos específicos, como la base de datos del BOE y el CENDOJ, de forma que sepamos que los datos son fiables, reduciendo el riesgo de inexactitudes, errores y «alucinaciones». El problema es el lenguaje jurídico que emplea estructuras complejas, como construcciones en voz pasiva, las cuales imponen una carga cognitiva considerable.

No hagan como Steven Schwartz y Peter LoDucados, abogados norteamericanos, que fueron sancionados con 5.000 dólares por usar ChatGPT e invocar jurisprudencia inexistente. Si usan este modelo de inteligencia artificial generativa u otros similares, revisen siempre el resultado. No se fíen.  

El Tribunal Constitucional en la nota informativa nº 90/2024 nos recuerda que «el letrado es siempre responsable de revisar exhaustivamente todo el contenido de este y de cualquier escrito que presenten en un proceso constitucional (en este caso de amparo), corrigiendo en su caso lo mal hecho, antes de su envío al procurador para su presentación en el registro general de este Tribunal». Dicha nota se refiere al caso de un abogado que falseó citas de jurisprudencia en un recurso de amparo, promoviendo el Tribunal, en su labor de policía de estrados, la oportuna sanción, que fue de apercibimiento.

Una de las grandes obligaciones de los despachos de abogados es preservar la confidencialidad de los datos personales de nuestros clientes, así que, cuidado con ChatGPT y aplicaciones similares, pues reutilizan toda la información que uno le proporciona para futuras consultas de terceros. Las grandes firmas emplearán sus propios modelos de inteligencia artificial generativa, enlazando estos con sus bases de datos.  

El Comité Técnico Estatal de la Administración Judicial Electrónica (CTEAJE) aprobó el 21 de junio de 2024 la Política de Uso de la Inteligencia Artificial en la Administración de Justicia, en la que fija una serie de criterios mínimos para asegurar un uso responsable, legal y ético de la inteligencia artificial en la Administración de Justicia que se basa en la «European ethical charter on the use of Artificial Intelligence in judicial sistemas and their environment» de la European Commission for the Efficiency of Justice (CEPEJ). El documento es vinculante para todos los trabajadores de la Administración de Justicia.

Harvey

Harvey es una herramienta de inteligencia artificial generativa diseñada, específicamente, para abogados. La herramienta se encuentra respaldada por grandes empresas como OpenAI.

En España, han formado una alianza con Lefebvre que garantiza que los resultados se basan en jurisprudencia, legislación y doctrina actualizada y confiable. A ellos se ha unido gran consultora como PwC que ofrece su «know-how».

Conclusiones

Con el desarrollo de la inteligencia artificial, cabe preguntar: ¿Serán necesarios los actores de doblaje cuando la inteligencia artificial sea capaz de perfeccionar la típica voz monótona, sin cambios de ritmo y sin emociones? ¿Los algoritmos serán capaces de recopilar información de actualidad y redactar artículos periodísticos de calidad? ¿Serán necesarios los diseñadores gráficos? ¿Qué pasará con los traductores? ¿Serán necesarios los programadores informáticos? ¿Y los abogados?.

Todas las profesiones, en mayor o menor medida, sufrirán el impacto de la inteligencia artificial y la Abogacía tendrá que adaptarse y reinventarse y, en particular, los despachos pequeños tendrán que aportar un valor añadido o desaparecerán. Estas y otras herramientas nos ayudarán en nuestro quehacer diario, evitando acciones repetitivas, eternas búsquedas de información, recopilando datos esenciales, etc. 

Para concluir, quiero compartirles el acto de clausura de la 4ª edición del Diploma de Alta Especialización en Legal Tech y Transformación Digital de la Escuela de Práctica Jurídica de la Universidad Complutense de Madrid sobre ChatGPT y su impacto en las profesiones jurídicas.

Actualización

La autoridad de control en materia de protección de datos de Italia (Garante per la Protezione dei Dati Personali) bloquea, con efecto inmediato, el acceso a ChatGPT. Haciendo clic aquí pueden acceder a la resolución de 30 de marzo de 2023. Más información sobre la noticia aquí.

La Red Iberoamericana de Protección de Datos (RIPD), integrada por 16 autoridades de protección de datos de 12 países de la región, considera que ChatGPT puede conllevar riesgos para los derechos y libertades de los usuarios, incluida la desinformación, pues la precisión y la profundidad de las respuestas puede variar en cada caso y/o generar respuestas con sesgos culturales, raciales o de género, así como falsas. Ante esta situación, la RIPD se ha propuesto iniciar una labor de supervisión en el ejercicio de sus competencias (fuente aquí).

error: Contenido protegido por derechos de propiedad intelectual mediante su registro en Safe Creative. Se prohíbe la reproducción, transformación, distribución y comunicación pública a título lucrativo por cualquier medio y soporte. La infracción de los derechos relativos a la propiedad intelectual es constitutiva de delito (artículo 270 y ss. del Código Penal). Se autoriza la reproducción, distribución y exhibición con fines no lucrativos mediante enlace a la fuente original