Connect with us

Ciencia y Tecnología

Hay una fiebre de ChatGPT entre los funcionarios públicos. Lo que no sabemos es cómo nos va a afectar como usuarios

Published

on

Hay una fiebre de ChatGPT entre los funcionarios públicos. Lo que no sabemos es cómo nos va a afectar como usuarios

En el Ayuntamiento de Bétera (Valencia) han convertido a ChatGPT en un empleado más. Así lo contaba en El País Marcos Gallart, el vicesecretario del área de urbanismo de dicha localidad. Según él la IA les ahorra “el 20% del tiempo en la redacción de informes”. El chatbot de OpenAI, como sus rivales, permiten desde luego ganarle tiempo al tiempo, pero hay un problema con esa adopción. O varios.

Cuidado con ahorrar tiempo. Aunque ChatGPT puede desde luego ayudar a realizar todo tipo de tareas administrativas, el propio Gallart explicaba cómo hace falta formación, acompañamiento y hasta dónde puede usarse este tipo de herramientas. Y ahí está el problema, porque la dimensión y complejidad de la administración pública hace que este tipo de procesos de adaptación y uso de nuevas tecnologías supongan un reto colosal.

No hay normas. A pesar de la obsesión reguladora de la UE y España en materia de IA, no hay una normativa clara que oriente a los funcionarios sobre cómo usar la IA y cómo gestionar los datos que se manejan con ella. Aquí se incluyen a profesores, personal sanitario o jueces que forman parte de un colectivo enorme (1,6 millones de trabajadores) que desde luego pueden usar estas herramientas, pero con mucho cuidado.

Que se lo digan a la Policía. En los últimos meses hemos comprobado cómo el uso indiscriminado de la IA y la confianza en estos sistemas puede resultar un verdadero desastre. La Policía Nacional, por ejemplo, llevaba seis años usando IA para detectar denuncias falsas, pero la fiabilidad real del sistema era muy discutible. En el reciente ‘caso Ábalos’ se usó una IA para transcribir las declaraciones de testigos y acusados en los interrogatorios, pero había párrafos que eran un galimatías. Más grave aún fue lo que ocurrió con el sistema de IA VioGén, que teóricamente estaba destinado a solucionar casos de violencia de género y ha acabado provocando tragedias mortales.

España quiere IA en la administración. Mientras, el Ministerio de Función Pública anunció estos días su intención de incorporar la IA a la Administración Pública. Para ello planteó una “plataforma soberana de IA” con una inversión de 14 millones de euros. Su misión, entre otras cosas: agilizar trámites en la administración para provocar la que según el ministro Óscar López será “la mayor revolución de la Administración General desde Internet”.

Una pesadilla para la privacidad (y seguridad). Que alguien le pregunte a ChatGPT por temas personales ya es delicado tanto por la respuesta —que puede no ser precisa o siquiera correcta— como por el hecho de que el chatbot guarda esos datos. La cosa es especialmente grave si un funcionario introduce documentos de todo tipo en este u otros chatbots para que se los resuma o analice: si esos documentos contienen datos sensibles o privados, quedan bajo el control de estos chatbots, que de hecho pueden filtrarlos por error a otros usuarios.

Los ciudadanos, posibles víctimas. Eso hace que la IA se convierta en un arma de doble fila para administraciones públicas y para los ciudadanos. Por un lado pueden ayudar a agilizar gestiones e incluso a resolver problemas de forma mucho más eficiente. Por el otro, un uso incorrecto de ChatGPT y sus alternativas puede hacer que los datos privados y personales acaben donde no deben, o incluso algo peor: que el resultado de una gestión sea erróneo porque un funcionario la usó y consideró que era correcto sin una supervisión adecuada.

Zero Data Retention. En este sentido son muchos los servicios que ofrecen planes sin retención de dato. (ZDR, Zero Data Retention) Esto es: los datos que introduces no se almacenarán en los servidores del proveedor. OpenAI la tiene en su servicio ChatGPT Enterprise, una versión empresarial precisamente diseñada para que los profesionales puedan usar la capacidad de ChatGPT sin miedo a filtraciones de datos. Microsoft es otro ejemplo.

La Administración Pública está más “liberada”. En marzo se aprobó el anteproyecto de ley para un uso ético, inclusivo y beneficioso de la IA. Ese documento era una adaptación a nuestra legislación del Reglamento Europeo de Inteligencia Artificial aprobado en marzo de 2024, pero allí encontrábamos una contradicción. Se criticó que la Ley de la IA era demasiado restrictiva —la UE tuvo que dar marcha atrás—, pero lo curioso es que no lo era con la Administración Pública: ahí la regulación es tibia, no especifica malos usos claros y solo considera faltas leves aquellas referidas al despliegue y uso de los sistemas  (artículos 25, 26 y 27). 

Imagen | PickPik

En Xataka | La obsesión reguladora de la UE plantea un mundo en el que la IA tendrá dos velocidades. Y Europa saldrá perdiendo


La noticia

Hay una fiebre de ChatGPT entre los funcionarios públicos. Lo que no sabemos es cómo nos va a afectar como usuarios

fue publicada originalmente en

Xataka

por
Javier Pastor

.

​En el Ayuntamiento de Bétera (Valencia) han convertido a ChatGPT en un empleado más. Así lo contaba en El País Marcos Gallart, el vicesecretario del área de urbanismo de dicha localidad. Según él la IA les ahorra “el 20% del tiempo en la redacción de informes”. El chatbot de OpenAI, como sus rivales, permiten desde luego ganarle tiempo al tiempo, pero hay un problema con esa adopción. O varios.

Cuidado con ahorrar tiempo. Aunque ChatGPT puede desde luego ayudar a realizar todo tipo de tareas administrativas, el propio Gallart explicaba cómo hace falta formación, acompañamiento y hasta dónde puede usarse este tipo de herramientas. Y ahí está el problema, porque la dimensión y complejidad de la administración pública hace que este tipo de procesos de adaptación y uso de nuevas tecnologías supongan un reto colosal.

En Xataka

Los algoritmos que controlan nuestras vidas son tan injustos como nosotros mismos

No hay normas. A pesar de la obsesión reguladora de la UE y España en materia de IA, no hay una normativa clara que oriente a los funcionarios sobre cómo usar la IA y cómo gestionar los datos que se manejan con ella. Aquí se incluyen a profesores, personal sanitario o jueces que forman parte de un colectivo enorme (1,6 millones de trabajadores) que desde luego pueden usar estas herramientas, pero con mucho cuidado.

Que se lo digan a la Policía. En los últimos meses hemos comprobado cómo el uso indiscriminado de la IA y la confianza en estos sistemas puede resultar un verdadero desastre. La Policía Nacional, por ejemplo, llevaba seis años usando IA para detectar denuncias falsas, pero la fiabilidad real del sistema era muy discutible. En el reciente ‘caso Ábalos’ se usó una IA para transcribir las declaraciones de testigos y acusados en los interrogatorios, pero había párrafos que eran un galimatías. Más grave aún fue lo que ocurrió con el sistema de IA VioGén, que teóricamente estaba destinado a solucionar casos de violencia de género y ha acabado provocando tragedias mortales.

España quiere IA en la administración. Mientras, el Ministerio de Función Pública anunció estos días su intención de incorporar la IA a la Administración Pública. Para ello planteó una “plataforma soberana de IA” con una inversión de 14 millones de euros. Su misión, entre otras cosas: agilizar trámites en la administración para provocar la que según el ministro Óscar López será “la mayor revolución de la Administración General desde Internet”.

Una pesadilla para la privacidad (y seguridad). Que alguien le pregunte a ChatGPT por temas personales ya es delicado tanto por la respuesta —que puede no ser precisa o siquiera correcta— como por el hecho de que el chatbot guarda esos datos. La cosa es especialmente grave si un funcionario introduce documentos de todo tipo en este u otros chatbots para que se los resuma o analice: si esos documentos contienen datos sensibles o privados, quedan bajo el control de estos chatbots, que de hecho pueden filtrarlos por error a otros usuarios.

Los ciudadanos, posibles víctimas. Eso hace que la IA se convierta en un arma de doble fila para administraciones públicas y para los ciudadanos. Por un lado pueden ayudar a agilizar gestiones e incluso a resolver problemas de forma mucho más eficiente. Por el otro, un uso incorrecto de ChatGPT y sus alternativas puede hacer que los datos privados y personales acaben donde no deben, o incluso algo peor: que el resultado de una gestión sea erróneo porque un funcionario la usó y consideró que era correcto sin una supervisión adecuada.

Zero Data Retention. En este sentido son muchos los servicios que ofrecen planes sin retención de dato. (ZDR, Zero Data Retention) Esto es: los datos que introduces no se almacenarán en los servidores del proveedor. OpenAI la tiene en su servicio ChatGPT Enterprise, una versión empresarial precisamente diseñada para que los profesionales puedan usar la capacidad de ChatGPT sin miedo a filtraciones de datos. Microsoft es otro ejemplo.

En Xataka

España no es en absoluto puntera en IA, pero ya tenemos una agencia regulatoria con 80 empleados. No sabemos muy bien qué van a regular

La Administración Pública está más “liberada”. En marzo se aprobó el anteproyecto de ley para un uso ético, inclusivo y beneficioso de la IA. Ese documento era una adaptación a nuestra legislación del Reglamento Europeo de Inteligencia Artificial aprobado en marzo de 2024, pero allí encontrábamos una contradicción. Se criticó que la Ley de la IA era demasiado restrictiva —la UE tuvo que dar marcha atrás—, pero lo curioso es que no lo era con la Administración Pública: ahí la regulación es tibia, no especifica malos usos claros y solo considera faltas leves aquellas referidas al despliegue y uso de los sistemas  (artículos 25, 26 y 27). 

Imagen | PickPik

En Xataka | La obsesión reguladora de la UE plantea un mundo en el que la IA tendrá dos velocidades. Y Europa saldrá perdiendo

– La noticia

Hay una fiebre de ChatGPT entre los funcionarios públicos. Lo que no sabemos es cómo nos va a afectar como usuarios

fue publicada originalmente en

Xataka

por
Javier Pastor

.   

​   

​ 

Continue Reading
Click to comment

Leave a Reply

Your email address will not be published. Required fields are marked *