Ciencia y Tecnología
Una empresa de energía solar ha demandado a Google por la IA de su buscador: se inventó que eran unos estafadores
<p>
 <img src="https://i.blogs.es/1b476f/google/1024_2000.jpeg" alt="Una empresa de energía solar ha demandado a Google por la IA de su buscador: se inventó que eran unos estafadores ">
 </p>
<p>El buscador de Google ya no es solo un buscador. Desde que Google empezó a integrar la función &#8220;AI Overviews&#8221; es también <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/busqueda-tal-como-conociamos-ha-terminado-ai-mode-google-no-entrega-resultados-conversa" data-vars-post-title="La búsqueda tal y como la conocíamos ha terminado. El AI Mode de Google ya no entrega resultados, conversa " data-vars-post-url="https://www.xataka.com/robotica-e-ia/busqueda-tal-como-conociamos-ha-terminado-ai-mode-google-no-entrega-resultados-conversa">un chatbot con inteligencia artificial</a> que contesta a las preguntas de los usuarios <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/resultados-google-ia-generativa-llegan-a-espana-ellos-elefante-habitacion-para-medios" data-vars-post-title="Los resultados de Google con IA generativa llegan a España. Y con ellos, un elefante en la habitación para los medios" data-vars-post-url="https://www.xataka.com/robotica-e-ia/resultados-google-ia-generativa-llegan-a-espana-ellos-elefante-habitacion-para-medios">sin que tengan que hacer clic en ningún enlace</a>. El problema es que la tecnología subyacente, los grandes modelos de lenguaje, funcionan de manera probabilística, por lo que tienden a inventarse la respuesta cuando no tienen muy claro cómo contestar.</p>
<p><!-- BREAK 1 --></p>
<p><strong>Una mentira creíble.</strong> Esta vez, una respuesta inventada de AI Overviews puede acabar sentando a Google en el banquillo. La demandante es Wolf River Electric, una empresa de energía solar de Minnesota. Y el origen del pleito es, valga la redundancia, una demanda que nunca existió.</p>
<p><!-- BREAK 2 --></p>
<div class="article-asset article-asset-normal article-asset-center">
<div class="desvio-container">
<div class="desvio">
<div class="desvio-figure js-desvio-figure">
 <a href="https://www.xataka.com/robotica-e-ia/chatgpt-esta-llevando-a-algunas-personas-al-borde-locura-realidad-alarmista-mucho-compleja" class="pivot-outboundlink" data-vars-post-title="ChatGPT está llevando a algunas personas al borde de la locura. La realidad es menos alarmista y mucho más compleja "><br />
 <img alt="ChatGPT está llevando a algunas personas al borde de la locura. La realidad es menos alarmista y mucho más compleja " width="375" height="142" src="https://i.blogs.es/73e93a/chatgpt-image-18-jun-2025--12_20_50/375_142.jpeg"><br />
 </a>
 </div>
<div class="desvio-summary">
<div class="desvio-taxonomy js-desvio-taxonomy">
 <a href="https://www.xataka.com/robotica-e-ia/chatgpt-esta-llevando-a-algunas-personas-al-borde-locura-realidad-alarmista-mucho-compleja" class="desvio-taxonomy-anchor pivot-outboundlink" data-vars-post-title="ChatGPT está llevando a algunas personas al borde de la locura. La realidad es menos alarmista y mucho más compleja ">En Xataka</a>
 </div>
<p> <a href="https://www.xataka.com/robotica-e-ia/chatgpt-esta-llevando-a-algunas-personas-al-borde-locura-realidad-alarmista-mucho-compleja" class="desvio-title js-desvio-title pivot-outboundlink" data-vars-post-title="ChatGPT está llevando a algunas personas al borde de la locura. La realidad es menos alarmista y mucho más compleja ">ChatGPT está llevando a algunas personas al borde de la locura. La realidad es menos alarmista y mucho más compleja </a>
 </div>
</p></div>
</p></div>
</div>
<p>Según los abogados de la empresa energética, la búsqueda de los términos &#8220;demanda contra Wolf River Electric&#8221; en Google hizo que <a rel="noopener, noreferrer" href="https://futurism.com/company-sues-google-ai-overviews">la IA respondiera con difamaciones</a>. Citan un caso en el que AI Overviews contestó que Wolf River Electric había sido demandada por el fiscal general de Minnesota por &#8220;prácticas de venta engañosas&#8221;, como mentir a los clientes sobre cuánto se van a ahorrar y engañar a los propietarios para que firmen contratos con tarifas ocultas.</p>
<p><!-- BREAK 3 --></p>
<p>La IA presentó el caso con total confianza implicando a cuatro de los directivos de la empresa por su nombre: Justin Nielsen, Vladimir Marchenko, Luka Bozek y Jonathan Latcham, llegando a mostrar una foto de Nielsen junto a las acusaciones falsas. Para respaldar sus afirmaciones, la IA citó cuatro enlaces: tres artículos de noticias y un comunicado del fiscal general. Sin embargo, ninguno de los enlaces mencionaba una demanda contra Wolf River Electric.</p>
<p><!-- BREAK 4 --></p>
<p><strong>No es la primera vez.</strong> Este tipo de error <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/alucinaciones-siguen-siendo-talon-aquiles-ia-ultimos-modelos-openai-inventan-cuenta" data-vars-post-title="Las alucinaciones siguen siendo el talón de Aquiles de la IA: los últimos modelos de OpenAI inventan más de la cuenta" data-vars-post-url="https://www.xataka.com/robotica-e-ia/alucinaciones-siguen-siendo-talon-aquiles-ia-ultimos-modelos-openai-inventan-cuenta">se conoce como &#8220;alucinación&#8221;</a>, y es muy común en los modelos de lenguaje por cómo van tejiendo su respuesta mediante la predicción de las siguientes palabras, a veces <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/hay-riesgo-agentes-ia-errores-acumulados-que-sean-telefono-escacharrado" data-vars-post-title="Todo empieza pidiéndole una cosa a una IA. Cuando la IA se lo pide a otras IA comienza el caos" data-vars-post-url="https://www.xataka.com/robotica-e-ia/hay-riesgo-agentes-ia-errores-acumulados-que-sean-telefono-escacharrado">arrastrando el error inicial</a> hasta convertirlo en una mentira creíble con todo tipo de ramificaciones inventadas, como en el juego del teléfono escacharrado.</p>
<p><!-- BREAK 5 --></p>
<p>Cuando Google empezó a integrar AI Overview en el buscador, tuvo que retirarlo de algunas búsquedas, en especial de recetas y nutrición, porque llegó a recomendar <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/ia-google-aconseja-usar-pegamento-queso-pizza-fuente-comentario-reddit-hace-11-anos" data-vars-post-title="La IA de Google aconseja usar pegamento para el queso de la pizza. La fuente es un comentario de Reddit de hace 11 años " data-vars-post-url="https://www.xataka.com/robotica-e-ia/ia-google-aconseja-usar-pegamento-queso-pizza-fuente-comentario-reddit-hace-11-anos">añadir pegamento a la pizza</a> o comer una piedra al día para mantenerse saludable.</p>
<p><!-- BREAK 6 --></p>
<p><strong>Una respuesta por pregunta.</strong> Wolf River Electric afirma que, debido a lo que leyeron en los AI Overviews, varios clientes cancelaron sus contratos, valorados en hasta 150.000 dólares. El problema es que las respuestas de AI Overviews son personalizadas: se infieren en el momento, por lo que puede variar de una consulta a otra</p>
<p><!-- BREAK 7 --></p>
<p>Eso a los abogados de Wolf River Electric no les preocupa porque saben que puede volver a ocurrir. &#8220;Esta demanda no va solo de defender la reputación de nuestra empresa; va de defender la equidad, la verdad y la responsabilidad en la era de la inteligencia artificial&#8221;, <a rel="noopener, noreferrer" href="https://finance-commerce.com/2025/06/wolf-river-electric-google-ai-defamation-lawsuit/">dice Nicholas Kasprowicz</a>, asesor jurídico de la empresa.</p>
<p><!-- BREAK 8 --></p>
<div class="article-asset-video article-asset-normal">
<div class="asset-content">
<div class="base-asset-video">
<div class="js-dailymotion"></div>
</p></div>
</p></div>
</div>
<p><strong>David contra Goliat.</strong> El caso fue presentado en marzo en un tribunal estatal y acaba de ser elevado a un tribunal federal de Estados Unidos. Tal vez acabe creando jurisprudencia sobre si una empresa tecnológica debe responsabilizarse de que su IA genere y difunda desinformación. La respuesta a esta pregunta podría marcar un punto de inflexión para las empresas de IA, que durante mucho tiempo han intentado eludir la responsabilidad por los resultados de sus modelos de lenguaje.</p>
<p><!-- BREAK 9 --></p>
<p>Google, en su defensa, calificó el incidente como un percance inofensivo. &#8220;La gran mayoría de nuestras AI Overviews son precisas y útiles, pero como con cualquier nueva tecnología, pueden ocurrir errores&#8221;, <a rel="noopener, noreferrer" href="https://www.politico.com/newsletters/digital-future-daily/2025/06/17/what-to-do-when-an-ai-lies-about-you-00410599">dice un portavoz de la compañía</a>. Google dice haber actuado rápidamente para solucionar el problema tan pronto como tuvieron conocimiento de él, en línea con sus <a href="https://www.xataka.com/servicios/google-esta-probando-funcion-que-usuarios-corrijan-errores-ia-ai-overviews-que-poca-gente-quiere">recientes esfuerzos</a> por permitir que los usuarios corrijan los errores de la IA.</p>
<p><!-- BREAK 10 --></p>
<p>Imagen | Google</p>
<p>En Xataka | <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/ia-google-aconseja-usar-pegamento-queso-pizza-fuente-comentario-reddit-hace-11-anos" data-vars-post-title="La IA de Google aconseja usar pegamento para el queso de la pizza. La fuente es un comentario de Reddit de hace 11 años " data-vars-post-url="https://www.xataka.com/robotica-e-ia/ia-google-aconseja-usar-pegamento-queso-pizza-fuente-comentario-reddit-hace-11-anos">La IA de Google aconseja usar pegamento para el queso de la pizza. La fuente es un comentario de Reddit de hace 11 años</a></p>
<p> &#8211; <br /> La noticia<br />
 <a href="https://www.xataka.com/energia/empresa-energia-solar-ha-demandado-a-google-ia-su-buscador-se-invento-que-eran-unos-estafadores?utm_source=feedburner&;utm_medium=feed&;utm_campaign=21_Jun_2025"><br />
 <em> Una empresa de energía solar ha demandado a Google por la IA de su buscador: se inventó que eran unos estafadores </em><br />
 </a><br />
 fue publicada originalmente en<br />
 <a href="https://www.xataka.com/?utm_source=feedburner&;utm_medium=feed&;utm_campaign=21_Jun_2025"><br />
 <strong> Xataka </strong><br />
 </a><br />
 por <a href="https://www.xataka.com/autor/matias-s-zavia?utm_source=feedburner&;utm_medium=feed&;utm_campaign=21_Jun_2025"><br />
 Matías S. Zavia<br />
 </a><br />
 . </p>
<p>​El buscador de Google ya no es solo un buscador. Desde que Google empezó a integrar la función &#8220;AI Overviews&#8221; es también un chatbot con inteligencia artificial que contesta a las preguntas de los usuarios sin que tengan que hacer clic en ningún enlace. El problema es que la tecnología subyacente, los grandes modelos de lenguaje, funcionan de manera probabilística, por lo que tienden a inventarse la respuesta cuando no tienen muy claro cómo contestar.</p>
<p>Una mentira creíble. Esta vez, una respuesta inventada de AI Overviews puede acabar sentando a Google en el banquillo. La demandante es Wolf River Electric, una empresa de energía solar de Minnesota. Y el origen del pleito es, valga la redundancia, una demanda que nunca existió.</p>
<p> En Xataka</p>
<p> ChatGPT está llevando a algunas personas al borde de la locura. La realidad es menos alarmista y mucho más compleja </p>
<p>Según los abogados de la empresa energética, la búsqueda de los términos &#8220;demanda contra Wolf River Electric&#8221; en Google hizo que la IA respondiera con difamaciones. Citan un caso en el que AI Overviews contestó que Wolf River Electric había sido demandada por el fiscal general de Minnesota por &#8220;prácticas de venta engañosas&#8221;, como mentir a los clientes sobre cuánto se van a ahorrar y engañar a los propietarios para que firmen contratos con tarifas ocultas.</p>
<p>La IA presentó el caso con total confianza implicando a cuatro de los directivos de la empresa por su nombre: Justin Nielsen, Vladimir Marchenko, Luka Bozek y Jonathan Latcham, llegando a mostrar una foto de Nielsen junto a las acusaciones falsas. Para respaldar sus afirmaciones, la IA citó cuatro enlaces: tres artículos de noticias y un comunicado del fiscal general. Sin embargo, ninguno de los enlaces mencionaba una demanda contra Wolf River Electric.</p>
<p>No es la primera vez. Este tipo de error se conoce como &#8220;alucinación&#8221;, y es muy común en los modelos de lenguaje por cómo van tejiendo su respuesta mediante la predicción de las siguientes palabras, a veces arrastrando el error inicial hasta convertirlo en una mentira creíble con todo tipo de ramificaciones inventadas, como en el juego del teléfono escacharrado.</p>
<p>Cuando Google empezó a integrar AI Overview en el buscador, tuvo que retirarlo de algunas búsquedas, en especial de recetas y nutrición, porque llegó a recomendar añadir pegamento a la pizza o comer una piedra al día para mantenerse saludable.</p>
<p>Una respuesta por pregunta. Wolf River Electric afirma que, debido a lo que leyeron en los AI Overviews, varios clientes cancelaron sus contratos, valorados en hasta 150.000 dólares. El problema es que las respuestas de AI Overviews son personalizadas: se infieren en el momento, por lo que puede variar de una consulta a otra</p>
<p>Eso a los abogados de Wolf River Electric no les preocupa porque saben que puede volver a ocurrir. &#8220;Esta demanda no va solo de defender la reputación de nuestra empresa; va de defender la equidad, la verdad y la responsabilidad en la era de la inteligencia artificial&#8221;, dice Nicholas Kasprowicz, asesor jurídico de la empresa.</p>
<p>David contra Goliat. El caso fue presentado en marzo en un tribunal estatal y acaba de ser elevado a un tribunal federal de Estados Unidos. Tal vez acabe creando jurisprudencia sobre si una empresa tecnológica debe responsabilizarse de que su IA genere y difunda desinformación. La respuesta a esta pregunta podría marcar un punto de inflexión para las empresas de IA, que durante mucho tiempo han intentado eludir la responsabilidad por los resultados de sus modelos de lenguaje.</p>
<p>Google, en su defensa, calificó el incidente como un percance inofensivo. &#8220;La gran mayoría de nuestras AI Overviews son precisas y útiles, pero como con cualquier nueva tecnología, pueden ocurrir errores&#8221;, dice un portavoz de la compañía. Google dice haber actuado rápidamente para solucionar el problema tan pronto como tuvieron conocimiento de él, en línea con sus recientes esfuerzos por permitir que los usuarios corrijan los errores de la IA.</p>
<p>Imagen | Google</p>
<p>En Xataka | La IA de Google aconseja usar pegamento para el queso de la pizza. La fuente es un comentario de Reddit de hace 11 años</p>
<p> &#8211; La noticia</p>
<p> Una empresa de energía solar ha demandado a Google por la IA de su buscador: se inventó que eran unos estafadores </p>
<p> fue publicada originalmente en</p>
<p> Xataka </p>
<p> por<br />
 Matías S. Zavia</p>
<p> . </p>
<p>​ </p>
<p>​ </p>