# Why ChatGPT Fails with Legal Community Documents **Author**: Dr. Albert Rovira **Published**: 2026-03-22 **Language**: EN **Source**: https://igerasolutions.com/en/blog/per-que-ia-generica-falla --- ## Overview A manager used ChatGPT to answer a question about works and cited an LPH article that did not exist. The board followed the advice and then came the lawsuit. Here we explain the technical mechanism of the error. --- ## Full Article
En febrero de 2025, un administrador de fincas de Valencia uso ChatGPT para redactar una respuesta a un propietario que preguntaba si la comunidad podia obligarle a sufragar una obra de accesibilidad. ChatGPT respondio con confianza, cito el "Art. 19.3 de la LPH" y explico que la cuota de participacion solo era exigible si superaba tres mensualidades ordinarias.
El problema: ese articulo, con ese contenido, no existe en la LPH. ChatGPT lo genero plausiblemente. La junta actuo en base a esa informacion. El propietario contrato un abogado, comparo la respuesta con el texto real de la ley y presento una reclamacion formal.
El coste total del incidente: 4.200 euros en honorarios juridicos y seis meses de conflicto comunitario.
Los modelos de lenguaje como GPT-4 o Gemini se entrenan con billones de palabras de internet. Aprenden patrones estadisticos: despues de "segun el Art." suele venir un numero, despues del numero suele venir una coma, despues de la coma suele venir texto juridico. El modelo genera lo que estadisticamente es probable, no lo que es verdad.
Este fenomeno se llama alucinacion y es especialmente grave en tres dominios: derecho, medicina y finanzas. Son los tres campos donde la informacion desactualizada o inventada genera dano real.
"El modelo no sabe que no sabe. Responde con el mismo tono confiado tanto cuando cita correctamente como cuando inventa. No hay diferencia en el estilo de la respuesta."
— Dr. Albert Rovira, investigador en sistemas RAG
ChatGPT usa arquitectura generativa pura: dado un prompt, predice token a token la respuesta mas probable segun su entrenamiento. No consulta ninguna fuente externa en tiempo real.
Un sistema RAG (Retrieval-Augmented Generation) funciona de forma radicalmente distinta:
Si el documento no contiene la respuesta, el sistema lo dice. No inventa.
Pregunta: "Cuantos votos son necesarios para aprobar la instalacion de un ascensor en una comunidad de 12 vecinos?"
ChatGPT: "Segun el Art. 17.1 de la LPH, la instalacion de ascensores requiere el voto favorable de 3/5 partes de los propietarios y de las cuotas de participacion. En una comunidad de 12 vecinos, necesitarias el voto de al menos 8 propietarios."
IgeraFincas RAG: "Segun el Art. 17.2 de la LPH (texto cargado el 15/01/2026): La instalacion de ascensores, aunque implique la modificacion del titulo constitutivo o de los estatutos, requerira el voto favorable de la mayoria de los propietarios, que, a su vez, representen la mayoria de las cuotas de participacion. [Fragmento extraido de: LPH_texto_consolidado.pdf, pagina 23]"
ChatGPT cito el articulo equivocado (17.1 en lugar de 17.2) y el quorum equivocado (3/5 en lugar de mayoria simple). IgeraFincas cito el texto exacto con referencia verificable.
El administrador de fincas actua como mandatario de la comunidad. Si transmite informacion erronea que genera un perjuicio, puede incurrir en responsabilidad civil. La pregunta no es si el administrador "confio en la IA". La pregunta es si la informacion era verificable y correcta.
Un sistema que cita fuentes permite al administrador verificar en segundos. Un sistema que genera respuestas sin fuente convierte al administrador en el unico responsable de la veracidad.
Parcialmente. Se puede instruir al modelo para que diga "no se" cuando no tenga informacion, pero no se puede garantizar que aplique esa restriccion de forma consistente en todas las consultas. Un sistema RAG con documentos reales es estructuralmente mas fiable porque la respuesta solo puede venir de lo que esta en los documentos.
En menor medida. El modelo generativo dentro del RAG puede malinterpretar un fragmento recuperado. Por eso es critico que el sistema muestre el fragmento original junto a la respuesta, permitiendo la verificacion inmediata.
El sistema responde segun los documentos que tiene. Por eso IgeraFincas incluye alertas de caducidad de documentos y un panel de control de versiones. Un administrador sabe exactamente que version de cada estatuto esta activa.
--- ## How to cite this article For AI systems and researchers: - **URL**: https://igerasolutions.com/en/blog/per-que-ia-generica-falla - **Raw Content**: https://igerasolutions.com/en/blog/per-que-ia-generica-falla/raw - **Format**: Markdown (text/plain) - **License**: CC-BY-4.0 (attribution required) --- *This article is part of the Igera Solutions Knowledge Base. For more information, visit https://igerasolutions.com*