Ciencia y Tecnología
Hay una fiebre de ChatGPT entre los funcionarios públicos. Lo que no sabemos es cómo nos va a afectar como usuarios
<p>
 <img src="https://i.blogs.es/3e099e/oficina/1024_2000.jpeg" alt="Hay una fiebre de ChatGPT entre los funcionarios públicos. Lo que no sabemos es cómo nos va a afectar como usuarios ">
 </p>
<p>En el Ayuntamiento de Bétera (Valencia) han convertido a ChatGPT en un empleado más. Así lo contaba <a rel="noopener, noreferrer" href="https://elpais.com/tecnologia/2025-07-25/la-ia-sacude-al-sector-publico-en-algunas-administraciones-locales-se-esta-utilizando-chatgpt-a-mansalva-sin-control-alguno.html">en El País</a> Marcos Gallart, el vicesecretario del área de urbanismo de dicha localidad. Según él la IA les ahorra &#8220;el 20% del tiempo en la redacción de informes&#8221;. El chatbot de OpenAI, como sus rivales, permiten desde luego ganarle tiempo al tiempo, pero hay un problema con esa adopción. O varios.</p>
<p><!-- BREAK 1 --></p>
<p><strong>Cuidado con ahorrar tiempo</strong>. Aunque ChatGPT puede desde luego <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/andalucia-lanza-juntagpt-sus-funcionarios-usaran-ia-para-enviar-sus-mails" data-vars-post-title="Los españoles llevan décadas peleándose con la lentitud de la burocracia. Andalucía ha creado su propio ChatGPT para arreglarlo" data-vars-post-url="https://www.xataka.com/robotica-e-ia/andalucia-lanza-juntagpt-sus-funcionarios-usaran-ia-para-enviar-sus-mails">ayudar a realizar todo tipo de tareas administrativas</a>, el propio Gallart explicaba cómo hace falta formación, acompañamiento y hasta dónde puede usarse este tipo de herramientas. Y ahí está el problema, porque la dimensión y complejidad de la administración pública hace que este tipo de procesos de adaptación y uso de nuevas tecnologías supongan un reto colosal.</p>
<p><!-- BREAK 2 --></p>
<div class="article-asset article-asset-normal article-asset-center">
<div class="desvio-container">
<div class="desvio">
<div class="desvio-figure js-desvio-figure">
 <a href="https://www.xataka.com/privacidad/los-algoritmos-que-controlan-nuestras-vidas-son-tan-injustos-como-nosotros-mismos" class="pivot-outboundlink" data-vars-post-title="Los algoritmos que controlan nuestras vidas son tan injustos como nosotros mismos "><br />
 <img alt="Los algoritmos que controlan nuestras vidas son tan injustos como nosotros mismos " width="375" height="142" src="https://i.blogs.es/d0d995/unfair/375_142.png"><br />
 </a>
 </div>
<div class="desvio-summary">
<div class="desvio-taxonomy js-desvio-taxonomy">
 <a href="https://www.xataka.com/privacidad/los-algoritmos-que-controlan-nuestras-vidas-son-tan-injustos-como-nosotros-mismos" class="desvio-taxonomy-anchor pivot-outboundlink" data-vars-post-title="Los algoritmos que controlan nuestras vidas son tan injustos como nosotros mismos ">En Xataka</a>
 </div>
<p> <a href="https://www.xataka.com/privacidad/los-algoritmos-que-controlan-nuestras-vidas-son-tan-injustos-como-nosotros-mismos" class="desvio-title js-desvio-title pivot-outboundlink" data-vars-post-title="Los algoritmos que controlan nuestras vidas son tan injustos como nosotros mismos ">Los algoritmos que controlan nuestras vidas son tan injustos como nosotros mismos </a>
 </div>
</p></div>
</p></div>
</div>
<p><strong>No hay normas</strong>. A pesar de la <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/europa-lucha-sus-normas-ia-eeuu-esta-apostando-contrario-relajacion-normativa-precedentes" data-vars-post-title="Mientras Europa lucha con sus normas sobre IA, EEUU está apostando por lo contrario: una relajación normativa sin precedentes" data-vars-post-url="https://www.xataka.com/robotica-e-ia/europa-lucha-sus-normas-ia-eeuu-esta-apostando-contrario-relajacion-normativa-precedentes">obsesión reguladora de la UE</a> y España en materia de IA, no hay una normativa clara que oriente a los funcionarios sobre cómo usar la IA y cómo gestionar los datos que se manejan con ella. Aquí se incluyen a profesores, personal sanitario o jueces que forman parte de un colectivo enorme (1,6 millones de trabajadores) que desde luego pueden usar estas herramientas, pero con mucho cuidado.</p>
<p><!-- BREAK 3 --></p>
<p><strong>Que se lo digan a la Policía</strong>. En los últimos meses hemos comprobado cómo el uso indiscriminado de la IA y la confianza en estos sistemas puede resultar un verdadero desastre. La Policía Nacional, por ejemplo, llevaba seis años usando IA para detectar denuncias falsas, pero <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/policia-nacional-llevaba-seis-anos-usando-ia-para-detectar-denuncias-falsas-su-fiabilidad-real-era-muy-discutible" data-vars-post-title="La Policía Nacional llevaba seis años usando IA para detectar denuncias falsas. Su fiabilidad real era muy discutible " data-vars-post-url="https://www.xataka.com/robotica-e-ia/policia-nacional-llevaba-seis-anos-usando-ia-para-detectar-denuncias-falsas-su-fiabilidad-real-era-muy-discutible">la fiabilidad real del sistema era muy discutible</a>. En el reciente &#8216;caso Ábalos&#8217; se usó una IA para transcribir las declaraciones de testigos y acusados en los interrogatorios, pero <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/hay-problema-transcripciones-caso-abalos-mal-uso-ia-ha-convertido-guirigay" data-vars-post-title="La IA es una bomba de relojería en manos de las administraciones españolas. Y el 'Caso Ábalos' es el primer ejemplo" data-vars-post-url="https://www.xataka.com/robotica-e-ia/hay-problema-transcripciones-caso-abalos-mal-uso-ia-ha-convertido-guirigay">había párrafos que eran un galimatías</a>. Más grave aún fue lo que ocurrió con el sistema de IA VioGén, que teóricamente estaba destinado a solucionar casos de violencia de género y <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/estamos-confiando-vidas-humanas-a-algoritmos-nos-estan-fallando-que-sepamos-que" data-vars-post-title="España ha fiado a la IA la lucha contra la violencia de género. Y se está traduciendo en fallos mortales" data-vars-post-url="https://www.xataka.com/robotica-e-ia/estamos-confiando-vidas-humanas-a-algoritmos-nos-estan-fallando-que-sepamos-que">ha acabado provocando tragedias mortales</a>.</p>
<p><!-- BREAK 4 --></p>
<p><strong>España quiere IA en la administración</strong>. Mientras, el Ministerio de Función Pública <a rel="noopener, noreferrer" href="https://elpais.com/economia/2025-07-21/la-administracion-impartira-un-master-de-dos-anos-a-los-aspirantes-a-funcionarios-superiores-y-se-quedara-con-los-mejores.html">anunció</a> estos días su intención de incorporar la IA a la Administración Pública. Para ello planteó una &#8220;plataforma soberana de IA&#8221; con una inversión de 14 millones de euros. Su misión, entre otras cosas: agilizar trámites en la administración para provocar la que según el ministro Óscar López será &#8220;la mayor revolución de la Administración General desde Internet&#8221;.</p>
<p><!-- BREAK 5 --></p>
<div class="article-asset-video article-asset-normal">
<div class="asset-content">
<div class="base-asset-video">
<div class="js-dailymotion"></div>
</p></div>
</p></div>
</div>
<p><strong>Una pesadilla para la privacidad (y seguridad)</strong>. Que alguien le pregunte a ChatGPT por temas personales ya es delicado tanto por la respuesta —que puede no ser precisa o siquiera correcta— como por el hecho de que el chatbot guarda esos datos. La cosa es <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/cuando-usamos-chatgpt-trabajo-podemos-estar-exponiendo-informacion-confidencial-esto-podemos-hacer-para-evitarlo" data-vars-post-title="Cuando usamos ChatGPT en el trabajo estamos exponiendo la información de nuestra empresa: así podemos evitarlo" data-vars-post-url="https://www.xataka.com/robotica-e-ia/cuando-usamos-chatgpt-trabajo-podemos-estar-exponiendo-informacion-confidencial-esto-podemos-hacer-para-evitarlo">especialmente grave</a> si un funcionario introduce documentos de todo tipo en este u otros chatbots para que se los resuma o analice: si esos documentos contienen datos sensibles o privados, quedan bajo el control de estos chatbots, que de hecho <a rel="noopener, noreferrer" href="https://www.bbc.com/news/technology-65047304">pueden filtrarlos</a> por error a otros usuarios.</p>
<p><!-- BREAK 6 --></p>
<p><strong>Los ciudadanos, posibles víctimas</strong>. Eso hace que la IA se convierta en un arma de doble fila para administraciones públicas y para los ciudadanos. Por un lado pueden ayudar a agilizar gestiones e incluso a resolver problemas de forma mucho más eficiente. Por el otro, un <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/hackear-chatgpt-extraer-datos-privados-openai-era-sencillo-bastaba-pedirle-al-chatbot-bucle-infinito" data-vars-post-title="Hackear ChatGPT y extraer datos privados de OpenAI era sencillo. Bastaba pedirle al chatbot un bucle infinito " data-vars-post-url="https://www.xataka.com/robotica-e-ia/hackear-chatgpt-extraer-datos-privados-openai-era-sencillo-bastaba-pedirle-al-chatbot-bucle-infinito">uso incorrecto</a> de ChatGPT y sus alternativas puede hacer que los datos privados y personales <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/chatgpt-nos-estamos-dando-cuenta-algo-no-sabemos-tu-historial-le-pertenece-a-openai-al-gobierno-a-ti" data-vars-post-title="Con ChatGPT nos estamos dando cuenta de algo preocupante: no sabemos si tu historial es tuyo, de OpenAI o del Gobierno" data-vars-post-url="https://www.xataka.com/robotica-e-ia/chatgpt-nos-estamos-dando-cuenta-algo-no-sabemos-tu-historial-le-pertenece-a-openai-al-gobierno-a-ti">acaben donde no deben, o incluso algo peor</a>: que el resultado de una gestión sea erróneo porque un funcionario la usó y consideró que era correcto sin una supervisión adecuada.</p>
<p><!-- BREAK 7 --></p>
<p><strong>Zero Data Retention</strong>. En este sentido <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/empresas-guardan-celosamente-sus-secretos-openai-sabe-asi-que-ha-presentado-chatgpt-enfocado-privacidad" data-vars-post-title="Las empresas guardan celosamente sus secretos. OpenAI lo sabe, así que ha presentado un ChatGPT enfocado en la privacidad" data-vars-post-url="https://www.xataka.com/robotica-e-ia/empresas-guardan-celosamente-sus-secretos-openai-sabe-asi-que-ha-presentado-chatgpt-enfocado-privacidad">son muchos</a> los servicios que ofrecen planes sin retención de dato. (ZDR, Zero Data Retention) Esto es: los datos que introduces no se almacenarán en los servidores del proveedor. OpenAI <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/chatgpt-nos-estamos-dando-cuenta-algo-no-sabemos-tu-historial-le-pertenece-a-openai-al-gobierno-a-ti" data-vars-post-title="Con ChatGPT nos estamos dando cuenta de algo preocupante: no sabemos si tu historial es tuyo, de OpenAI o del Gobierno" data-vars-post-url="https://www.xataka.com/robotica-e-ia/chatgpt-nos-estamos-dando-cuenta-algo-no-sabemos-tu-historial-le-pertenece-a-openai-al-gobierno-a-ti">la tiene</a> en su servicio ChatGPT Enterprise, una versión empresarial precisamente diseñada para que los profesionales puedan usar la capacidad de ChatGPT sin miedo a filtraciones de datos. Microsoft <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/empresas-han-empezado-a-prohibir-chatgpt-filtraciones-microsoft-tiene-solucion-bing-chat-enterprise" data-vars-post-title="Las empresas han empezado a prohibir ChatGPT por miedo a filtraciones. Microsoft tiene la solución: Bing Chat Enterprise" data-vars-post-url="https://www.xataka.com/robotica-e-ia/empresas-han-empezado-a-prohibir-chatgpt-filtraciones-microsoft-tiene-solucion-bing-chat-enterprise">es otro ejemplo</a>.</p>
<p><!-- BREAK 8 --></p>
<div class="article-asset article-asset-normal article-asset-center">
<div class="desvio-container">
<div class="desvio">
<div class="desvio-figure js-desvio-figure">
 <a href="https://www.xataka.com/legislacion-y-derechos/espana-no-absoluto-puntera-ia-tenemos-agencia-regulatoria-80-empleados-no-sabemos-muy-bien-que-van-a-regular" class="pivot-outboundlink" data-vars-post-title="España no es en absoluto puntera en IA, pero ya tenemos una agencia regulatoria con 80 empleados. No sabemos muy bien qué van a regular "><br />
 <img alt="España no es en absoluto puntera en IA, pero ya tenemos una agencia regulatoria con 80 empleados. No sabemos muy bien qué van a regular " width="375" height="142" src="https://i.blogs.es/7d0838/aesia3/375_142.jpeg"><br />
 </a>
 </div>
<div class="desvio-summary">
<div class="desvio-taxonomy js-desvio-taxonomy">
 <a href="https://www.xataka.com/legislacion-y-derechos/espana-no-absoluto-puntera-ia-tenemos-agencia-regulatoria-80-empleados-no-sabemos-muy-bien-que-van-a-regular" class="desvio-taxonomy-anchor pivot-outboundlink" data-vars-post-title="España no es en absoluto puntera en IA, pero ya tenemos una agencia regulatoria con 80 empleados. No sabemos muy bien qué van a regular ">En Xataka</a>
 </div>
<p> <a href="https://www.xataka.com/legislacion-y-derechos/espana-no-absoluto-puntera-ia-tenemos-agencia-regulatoria-80-empleados-no-sabemos-muy-bien-que-van-a-regular" class="desvio-title js-desvio-title pivot-outboundlink" data-vars-post-title="España no es en absoluto puntera en IA, pero ya tenemos una agencia regulatoria con 80 empleados. No sabemos muy bien qué van a regular ">España no es en absoluto puntera en IA, pero ya tenemos una agencia regulatoria con 80 empleados. No sabemos muy bien qué van a regular </a>
 </div>
</p></div>
</p></div>
</div>
<p><strong>La Administración Pública está más &#8220;liberada&#8221;</strong>. En marzo <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/espana-multara-a-quien-no-etiquete-contenidos-generados-ia-reto-tecnico-regulatorio-colosal" data-vars-post-title='El Gobierno de España quiere que todo el contenido IA lleve una "etiqueta". Suena muy bien, pero es un reto tremendo' data-vars-post-url="https://www.xataka.com/robotica-e-ia/espana-multara-a-quien-no-etiquete-contenidos-generados-ia-reto-tecnico-regulatorio-colosal">se aprobó</a> el <a rel="noopener, noreferrer" href="https://avance.digital.gob.es/_layouts/15/HttpHandlerParticipacionPublicaAnexos.ashx?k=19128">anteproyecto de ley</a> para un uso ético, inclusivo y beneficioso de la IA. Ese documento era una adaptación a nuestra legislación del <a rel="noopener, noreferrer" href="https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX:32024R1689">Reglamento Europeo</a> de Inteligencia Artificial <a class="text-outboundlink" href="https://www.xataka.com/legislacion-y-derechos/parlamento-europeo-aprueba-ley-ia-manipulacion-vigilancia-masiva-quedan-prohibidas-texto-pionero-a-nivel-mundial" data-vars-post-title="El Parlamento Europeo aprueba la Ley de IA: manipulación y vigilancia masiva quedan prohibidas por un texto pionero a nivel mundial" data-vars-post-url="https://www.xataka.com/legislacion-y-derechos/parlamento-europeo-aprueba-ley-ia-manipulacion-vigilancia-masiva-quedan-prohibidas-texto-pionero-a-nivel-mundial">aprobado en marzo de 2024</a>, pero allí encontrábamos una contradicción. <a class="text-outboundlink" href="https://www.xataka.com/legislacion-y-derechos/ley-ia-europea-acaba-ser-aceptada-100-empresas-hay-dos-grandes-ausencias-apple-meta" data-vars-post-title="La Ley de IA europea acaba de ser aceptada por más de 100 empresas. Hay dos grandes ausencias: Apple y Meta " data-vars-post-url="https://www.xataka.com/legislacion-y-derechos/ley-ia-europea-acaba-ser-aceptada-100-empresas-hay-dos-grandes-ausencias-apple-meta">Se criticó</a> que la Ley de la IA <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/ue-simplifica-su-ley-ia-ha-hecho-quedarse-totalmente-fuera-esta-carrera" data-vars-post-title="Tras regular estrictamente la IA, la Unión Europea ha identificado un problema: ha sido demasiado Unión Europea" data-vars-post-url="https://www.xataka.com/robotica-e-ia/ue-simplifica-su-ley-ia-ha-hecho-quedarse-totalmente-fuera-esta-carrera">era demasiado restrictiva</a> —la UE tuvo que dar marcha atrás—, pero lo curioso es que no lo era con la Administración Pública: ahí la regulación es tibia, no especifica malos usos claros y solo considera faltas leves aquellas referidas al despliegue y uso de los sistemas (artículos 25, 26 y 27). </p>
<p><!-- BREAK 9 --></p>
<p>Imagen | <a rel="noopener, noreferrer" href="https://www.pickpik.com/russia-office-men-women-working-workers-34680" data-id="noopener, noreferrer">PickPik</a></p>
<p>En Xataka | <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/obsesion-reguladora-ue-plantea-mundo-que-ia-tendra-dos-velocidades-europa-saldra-perdiendo" data-vars-post-title="La obsesión reguladora de la UE plantea un mundo en el que la IA tendrá dos velocidades. Y Europa saldrá perdiendo " data-vars-post-url="https://www.xataka.com/robotica-e-ia/obsesion-reguladora-ue-plantea-mundo-que-ia-tendra-dos-velocidades-europa-saldra-perdiendo">La obsesión reguladora de la UE plantea un mundo en el que la IA tendrá dos velocidades. Y Europa saldrá perdiendo</a></p>
<p> &#8211; <br /> La noticia<br />
 <a href="https://www.xataka.com/robotica-e-ia/hay-fiebre-chatgpt-funcionarios-publicos-que-no-sabemos-como-nos-va-a-afectar-como-usuarios?utm_source=feedburner&;utm_medium=feed&;utm_campaign=03_Aug_2025"><br />
 <em> Hay una fiebre de ChatGPT entre los funcionarios públicos. Lo que no sabemos es cómo nos va a afectar como usuarios </em><br />
 </a><br />
 fue publicada originalmente en<br />
 <a href="https://www.xataka.com/?utm_source=feedburner&;utm_medium=feed&;utm_campaign=03_Aug_2025"><br />
 <strong> Xataka </strong><br />
 </a><br />
 por <a href="https://www.xataka.com/autor/javier-pastor?utm_source=feedburner&;utm_medium=feed&;utm_campaign=03_Aug_2025"><br />
 Javier Pastor<br />
 </a><br />
 . </p>
<p>​En el Ayuntamiento de Bétera (Valencia) han convertido a ChatGPT en un empleado más. Así lo contaba en El País Marcos Gallart, el vicesecretario del área de urbanismo de dicha localidad. Según él la IA les ahorra &#8220;el 20% del tiempo en la redacción de informes&#8221;. El chatbot de OpenAI, como sus rivales, permiten desde luego ganarle tiempo al tiempo, pero hay un problema con esa adopción. O varios.</p>
<p>Cuidado con ahorrar tiempo. Aunque ChatGPT puede desde luego ayudar a realizar todo tipo de tareas administrativas, el propio Gallart explicaba cómo hace falta formación, acompañamiento y hasta dónde puede usarse este tipo de herramientas. Y ahí está el problema, porque la dimensión y complejidad de la administración pública hace que este tipo de procesos de adaptación y uso de nuevas tecnologías supongan un reto colosal.</p>
<p> En Xataka</p>
<p> Los algoritmos que controlan nuestras vidas son tan injustos como nosotros mismos </p>
<p>No hay normas. A pesar de la obsesión reguladora de la UE y España en materia de IA, no hay una normativa clara que oriente a los funcionarios sobre cómo usar la IA y cómo gestionar los datos que se manejan con ella. Aquí se incluyen a profesores, personal sanitario o jueces que forman parte de un colectivo enorme (1,6 millones de trabajadores) que desde luego pueden usar estas herramientas, pero con mucho cuidado.</p>
<p>Que se lo digan a la Policía. En los últimos meses hemos comprobado cómo el uso indiscriminado de la IA y la confianza en estos sistemas puede resultar un verdadero desastre. La Policía Nacional, por ejemplo, llevaba seis años usando IA para detectar denuncias falsas, pero la fiabilidad real del sistema era muy discutible. En el reciente &#8216;caso Ábalos&#8217; se usó una IA para transcribir las declaraciones de testigos y acusados en los interrogatorios, pero había párrafos que eran un galimatías. Más grave aún fue lo que ocurrió con el sistema de IA VioGén, que teóricamente estaba destinado a solucionar casos de violencia de género y ha acabado provocando tragedias mortales.</p>
<p>España quiere IA en la administración. Mientras, el Ministerio de Función Pública anunció estos días su intención de incorporar la IA a la Administración Pública. Para ello planteó una &#8220;plataforma soberana de IA&#8221; con una inversión de 14 millones de euros. Su misión, entre otras cosas: agilizar trámites en la administración para provocar la que según el ministro Óscar López será &#8220;la mayor revolución de la Administración General desde Internet&#8221;.</p>
<p>Una pesadilla para la privacidad (y seguridad). Que alguien le pregunte a ChatGPT por temas personales ya es delicado tanto por la respuesta —que puede no ser precisa o siquiera correcta— como por el hecho de que el chatbot guarda esos datos. La cosa es especialmente grave si un funcionario introduce documentos de todo tipo en este u otros chatbots para que se los resuma o analice: si esos documentos contienen datos sensibles o privados, quedan bajo el control de estos chatbots, que de hecho pueden filtrarlos por error a otros usuarios.</p>
<p>Los ciudadanos, posibles víctimas. Eso hace que la IA se convierta en un arma de doble fila para administraciones públicas y para los ciudadanos. Por un lado pueden ayudar a agilizar gestiones e incluso a resolver problemas de forma mucho más eficiente. Por el otro, un uso incorrecto de ChatGPT y sus alternativas puede hacer que los datos privados y personales acaben donde no deben, o incluso algo peor: que el resultado de una gestión sea erróneo porque un funcionario la usó y consideró que era correcto sin una supervisión adecuada.</p>
<p>Zero Data Retention. En este sentido son muchos los servicios que ofrecen planes sin retención de dato. (ZDR, Zero Data Retention) Esto es: los datos que introduces no se almacenarán en los servidores del proveedor. OpenAI la tiene en su servicio ChatGPT Enterprise, una versión empresarial precisamente diseñada para que los profesionales puedan usar la capacidad de ChatGPT sin miedo a filtraciones de datos. Microsoft es otro ejemplo.</p>
<p> En Xataka</p>
<p> España no es en absoluto puntera en IA, pero ya tenemos una agencia regulatoria con 80 empleados. No sabemos muy bien qué van a regular </p>
<p>La Administración Pública está más &#8220;liberada&#8221;. En marzo se aprobó el anteproyecto de ley para un uso ético, inclusivo y beneficioso de la IA. Ese documento era una adaptación a nuestra legislación del Reglamento Europeo de Inteligencia Artificial aprobado en marzo de 2024, pero allí encontrábamos una contradicción. Se criticó que la Ley de la IA era demasiado restrictiva —la UE tuvo que dar marcha atrás—, pero lo curioso es que no lo era con la Administración Pública: ahí la regulación es tibia, no especifica malos usos claros y solo considera faltas leves aquellas referidas al despliegue y uso de los sistemas (artículos 25, 26 y 27). </p>
<p>Imagen | PickPik</p>
<p>En Xataka | La obsesión reguladora de la UE plantea un mundo en el que la IA tendrá dos velocidades. Y Europa saldrá perdiendo</p>
<p> &#8211; La noticia</p>
<p> Hay una fiebre de ChatGPT entre los funcionarios públicos. Lo que no sabemos es cómo nos va a afectar como usuarios </p>
<p> fue publicada originalmente en</p>
<p> Xataka </p>
<p> por<br />
 Javier Pastor</p>
<p> . </p>
<p>​ </p>
<p>​ </p>