Ciencia y Tecnología
Un momento incómodo se está volviendo habitual en las reuniones: alguien las graba con IA sin avisar y nadie sabe qué hacer
<p>
 <img src="https://i.blogs.es/29f58c/ilustracion-reunion-minimalista-jun-19-2025/1024_2000.jpeg" alt="Un momento incómodo se está volviendo habitual en las reuniones: alguien las graba con IA sin avisar y nadie sabe qué hacer">
 </p>
<p>Hay un momento incómodo que se está volviendo habitual en las reuniones, presenciales u online: alguien entra a la reunión, abre el portátil y <strong>sin decir nada activa su </strong><em><strong>bot</strong></em><strong> de IA</strong> para grabar y transcribir.</p>
<p><!-- BREAK 1 --></p>
<p>El resto se queda en silencio, calibrando si protestar o fingir que no pasa nada. Pensando si tiene la jerarquía suficiente para levantar la voz o si le saldrá a pagar.</p>
<p><!-- BREAK 2 --></p>
<p>Bienvenidos a la era de la vigilancia corporativa normalizada.</p>
<p>Como suele ocurrir, <strong>la tecnología ha llegado antes que las reglas</strong>. <a class="text-outboundlink" href="https://www.xataka.com/basics/18-extensiones-basadas-inteligencia-artificial-chatgpt-para-chrome-edge-firefox-safari" data-vars-post-title="18 extensiones basadas en inteligencia artificial y ChatGPT para Chrome, Edge, Firefox o Safari" data-vars-post-url="https://www.xataka.com/basics/18-extensiones-basadas-inteligencia-artificial-chatgpt-para-chrome-edge-firefox-safari">Los asistentes de IA pueden grabar, transcribir</a>, analizar el tono, identificar quién habla más, hacer inferencias sobre nosotros y hasta sugerir respuestas en tiempo real. Pero nadie sabe qué hacer con eso socialmente.</p>
<p><!-- BREAK 3 --></p>
<p>¿Es de mala educación activar un <em>bot</em> sin avisar? ¿Dónde van esos datos? ¿Quién más los va a conocer? ¿Qué van a procesar con ellos?</p>
<div class="article-asset article-asset-normal article-asset-center">
<div class="desvio-container">
<div class="desvio">
<div class="desvio-figure js-desvio-figure">
 <a href="https://www.xataka.com/robotica-e-ia/hay-riesgo-agentes-ia-errores-acumulados-que-sean-telefono-escacharrado" class="pivot-outboundlink" data-vars-post-title="Todo empieza pidiéndole una cosa a una IA. Cuando la IA se lo pide a otras IA comienza el caos"><br />
 <img alt="Todo empieza pidiéndole una cosa a una IA. Cuando la IA se lo pide a otras IA comienza el caos" width="375" height="142" src="https://i.blogs.es/3d87c3/thinking/375_142.jpeg"><br />
 </a>
 </div>
<div class="desvio-summary">
<div class="desvio-taxonomy js-desvio-taxonomy">
 <a href="https://www.xataka.com/robotica-e-ia/hay-riesgo-agentes-ia-errores-acumulados-que-sean-telefono-escacharrado" class="desvio-taxonomy-anchor pivot-outboundlink" data-vars-post-title="Todo empieza pidiéndole una cosa a una IA. Cuando la IA se lo pide a otras IA comienza el caos">En Xataka</a>
 </div>
<p> <a href="https://www.xataka.com/robotica-e-ia/hay-riesgo-agentes-ia-errores-acumulados-que-sean-telefono-escacharrado" class="desvio-title js-desvio-title pivot-outboundlink" data-vars-post-title="Todo empieza pidiéndole una cosa a una IA. Cuando la IA se lo pide a otras IA comienza el caos">Todo empieza pidiéndole una cosa a una IA. Cuando la IA se lo pide a otras IA comienza el caos</a>
 </div>
</p></div>
</p></div>
</div>
<p>Es <strong>la paradoja clásica de toda disrupción tecnológica</strong>: la herramienta existe, funciona, promete eficiencia, pero las normas sociales van tres pasos por detrás. Como cuando llegaron los móviles y tardamos años en decidir si era aceptable contestar en el cine o hablar en el ascensor. <a class="text-outboundlink" href="https://www.xataka.com/wearables/ray-ban-meta-estamos-periodo-maxima-vulnerabilidad-tecnologia-esta-aqui-conciencia-social-todavia-no" data-vars-post-title="Las Ray-Ban Meta han convertido a cualquiera en espía por 329 euros. El detenido de Barcelona es solo el primer caso visible" data-vars-post-url="https://www.xataka.com/wearables/ray-ban-meta-estamos-periodo-maxima-vulnerabilidad-tecnologia-esta-aqui-conciencia-social-todavia-no">Con las Ray-Ban Meta estamos viviendo algo parecido</a>.</p>
<p><!-- BREAK 4 --></p>
<p>Solo que <strong>esta vez los riesgos son mayores</strong>. Porque el <em>bot</em> no solo graba: interpreta, analiza, almacena. Puede captar no solo lo que dices, sino cómo lo dices, cuándo dudas, con quién estás más o menos de acuerdo. Y todo eso queda registrado en la otra parte, pero también en servidores de empresas que ya saben demasiado sobre nosotros.</p>
<p><!-- BREAK 5 --></p>
<div class="article-asset-video article-asset-normal">
<div class="asset-content">
<div class="base-asset-video">
<div class="js-dailymotion"></div>
</p></div>
</p></div>
</div>
<p>La solución no vendrá de la tecnología, sino de nosotros. Necesitamos desarrollar rápido una etiqueta clara:</p>
<ol>
<li>Avisar antes de grabar o invitar al <em>bot.</em></li>
<li>Especificar para qué se usará la información.</li>
<li>Preguntar si alguien se siente incómodo.</li>
<li>Normalizar políticas de empresa que los restrinjan, al menos los de ciertos tipos.</li>
</ol>
<p>Si no lo hacemos, <strong>acabaremos normalizando que cualquier conversación pueda convertirse en datos a tratar</strong> sin nuestro consentimiento. Y esa no es una reunión a la que queremos asistir.</p>
<p><!-- BREAK 6 --></p>
<p>En Xataka | <a class="text-outboundlink" href="https://www.xataka.com/empresas-y-economia/pregunta-que-se-fijan-reclutadores-a-hora-contratar-estudio-ha-dado-respuesta-experiencia-actitud" data-vars-post-title="Si la pregunta es en qué se fijan los reclutadores a la hora de contratar, un estudio ha dado la respuesta: experiencia y actitud " data-vars-post-url="https://www.xataka.com/empresas-y-economia/pregunta-que-se-fijan-reclutadores-a-hora-contratar-estudio-ha-dado-respuesta-experiencia-actitud">Si la pregunta es en qué se fijan los reclutadores a la hora de contratar, un estudio ha dado la respuesta: experiencia y actitud</a></p>
<p>Imagen destacada | Xataka</p>
<p> &#8211; <br /> La noticia<br />
 <a href="https://www.xataka.com/robotica-e-ia/momento-incomodo-se-esta-volviendo-habitual-reuniones-alguien-graba-ia-avisar-nadie-sabe-que-hacer?utm_source=feedburner&;utm_medium=feed&;utm_campaign=21_Jun_2025"><br />
 <em> Un momento incómodo se está volviendo habitual en las reuniones: alguien las graba con IA sin avisar y nadie sabe qué hacer </em><br />
 </a><br />
 fue publicada originalmente en<br />
 <a href="https://www.xataka.com/?utm_source=feedburner&;utm_medium=feed&;utm_campaign=21_Jun_2025"><br />
 <strong> Xataka </strong><br />
 </a><br />
 por <a href="https://www.xataka.com/autor/javier-lacort?utm_source=feedburner&;utm_medium=feed&;utm_campaign=21_Jun_2025"><br />
 Javier Lacort<br />
 </a><br />
 . </p>
<p>​Hay un momento incómodo que se está volviendo habitual en las reuniones, presenciales u online: alguien entra a la reunión, abre el portátil y sin decir nada activa su bot de IA para grabar y transcribir.</p>
<p>El resto se queda en silencio, calibrando si protestar o fingir que no pasa nada. Pensando si tiene la jerarquía suficiente para levantar la voz o si le saldrá a pagar.</p>
<p>Bienvenidos a la era de la vigilancia corporativa normalizada.</p>
<p>Como suele ocurrir, la tecnología ha llegado antes que las reglas. Los asistentes de IA pueden grabar, transcribir, analizar el tono, identificar quién habla más, hacer inferencias sobre nosotros y hasta sugerir respuestas en tiempo real. Pero nadie sabe qué hacer con eso socialmente.</p>
<p>¿Es de mala educación activar un bot sin avisar? ¿Dónde van esos datos? ¿Quién más los va a conocer? ¿Qué van a procesar con ellos?</p>
<p> En Xataka</p>
<p> Todo empieza pidiéndole una cosa a una IA. Cuando la IA se lo pide a otras IA comienza el caos</p>
<p>Es la paradoja clásica de toda disrupción tecnológica: la herramienta existe, funciona, promete eficiencia, pero las normas sociales van tres pasos por detrás. Como cuando llegaron los móviles y tardamos años en decidir si era aceptable contestar en el cine o hablar en el ascensor. Con las Ray-Ban Meta estamos viviendo algo parecido.</p>
<p>Solo que esta vez los riesgos son mayores. Porque el bot no solo graba: interpreta, analiza, almacena. Puede captar no solo lo que dices, sino cómo lo dices, cuándo dudas, con quién estás más o menos de acuerdo. Y todo eso queda registrado en la otra parte, pero también en servidores de empresas que ya saben demasiado sobre nosotros.</p>
<p>La solución no vendrá de la tecnología, sino de nosotros. Necesitamos desarrollar rápido una etiqueta clara:</p>
<p> Avisar antes de grabar o invitar al bot.<br />
 Especificar para qué se usará la información.<br />
 Preguntar si alguien se siente incómodo.<br />
 Normalizar políticas de empresa que los restrinjan, al menos los de ciertos tipos.</p>
<p>Si no lo hacemos, acabaremos normalizando que cualquier conversación pueda convertirse en datos a tratar sin nuestro consentimiento. Y esa no es una reunión a la que queremos asistir.</p>
<p>En Xataka | Si la pregunta es en qué se fijan los reclutadores a la hora de contratar, un estudio ha dado la respuesta: experiencia y actitud</p>
<p>Imagen destacada | Xataka</p>
<p> &#8211; La noticia</p>
<p> Un momento incómodo se está volviendo habitual en las reuniones: alguien las graba con IA sin avisar y nadie sabe qué hacer </p>
<p> fue publicada originalmente en</p>
<p> Xataka </p>
<p> por<br />
 Javier Lacort</p>
<p> . </p>
<p>​ </p>
<p>​ </p>