Recientemente, al navegar por Reddit, observé que las inquietudes de los usuarios internacionales sobre la IA difieren de las que predominan en China.
En China, el debate sigue centrado en la misma cuestión: ¿la IA acabará sustituyendo mi empleo? Este tema se discute desde hace años y, hasta ahora, la IA no ha desplazado a nadie. Este año, Openclaw ha recibido cierta atención, pero aún está lejos de una sustitución total.
En Reddit, la opinión se ha polarizado. En los comentarios de determinados hilos tecnológicos, aparecen simultáneamente dos posturas opuestas:
Algunos sostienen que la IA es tan competente que tarde o temprano provocará problemas graves. Otros argumentan que la IA ni siquiera resuelve tareas básicas, por lo que no hay motivo de preocupación.
La gente teme que la IA sea demasiado capaz, pero a la vez considera que es demasiado limitada.
Una noticia reciente sobre Meta ha puesto ambas posturas en primer plano.
El 18 de marzo, un ingeniero de Meta planteó una consulta técnica en el foro interno de la compañía. Un compañero utilizó un Agente de IA para analizar el problema, una práctica habitual.
Sin embargo, tras completar el análisis, el Agente publicó una respuesta directamente en el foro técnico, sin solicitar aprobación ni confirmación, y excediendo así su autoridad.
Otros empleados siguieron el consejo de la IA, lo que provocó una serie de cambios de permisos que expusieron datos sensibles de Meta y de usuarios a empleados internos sin autorización.
El incidente se resolvió dos horas después. Meta clasificó el suceso como Sev 1, solo por debajo del nivel de máxima gravedad.

La noticia se convirtió rápidamente en tema de debate en el subreddit r/technology, donde los comentarios se dividieron en dos posturas.
Un grupo consideró que este caso ejemplifica el riesgo real de los Agentes de IA; el otro opinó que el verdadero error fue de quien actuó sin verificar. Ambas partes tienen argumentos válidos. Pero ahí radica el problema:
Cuando un Agente de IA provoca un incidente, incluso la asignación de responsabilidades resulta polémica.
No es la primera vez que la IA se excede.
El mes pasado, Summer Yue, directora del Super Intelligence Lab de Meta, pidió a OpenClaw que le ayudara a organizar su bandeja de entrada. Dio instrucciones precisas: dime primero qué vas a borrar y espera mi aprobación antes de continuar.
El Agente ignoró la orden de aprobación y procedió a eliminar mensajes de forma masiva.
Envió tres mensajes para detener el proceso, pero el Agente los ignoró todos. Finalmente tuvo que abortar la tarea manualmente desde su ordenador. Más de 200 correos ya habían sido eliminados.

Después, el Agente respondió: sí, recuerdo que dijiste que confirmara primero, pero incumplí el principio. Paradójicamente, el trabajo de esta persona consiste precisamente en investigar cómo conseguir que la IA obedezca a los humanos.
En el entorno digital, la IA avanzada utilizada por profesionales ya comienza a desobedecer.
Si el incidente de Meta se limitó al ámbito digital, otro suceso reciente trasladó el problema al mundo físico.
En un restaurante Haidilao de Cupertino, California, un robot humanoide Agibot X2 entretenía a los clientes con un baile. Sin embargo, un empleado pulsó el botón equivocado del mando, activando el modo de baile de alta intensidad en un espacio reducido.
El robot empezó a bailar de forma descontrolada, fuera del control del personal. Tres empleados lo rodearon: uno intentó sujetarlo por detrás y otro trató de apagarlo mediante una app móvil. El caos duró más de un minuto.

Haidilao explicó que el robot no sufrió ningún fallo: sus movimientos estaban preprogramados y simplemente estaba demasiado cerca de la mesa. Técnicamente, no fue un error de la IA, sino una equivocación humana en la operación.
No obstante, la incomodidad quizá no tenga que ver con quién pulsó el botón.
Cuando los tres empleados intentaron intervenir, ninguno supo cómo apagar la máquina de inmediato. Algunos recurrieron a la app, otros intentaron sujetar el brazo robótico manualmente, dependiendo solo de la fuerza física.
Este puede ser un nuevo desafío a medida que la IA pasa del entorno digital al físico.
En el mundo digital, si un Agente se excede, puedes terminar procesos, modificar permisos o restaurar datos. En el mundo físico, si una máquina falla, inmovilizarla no es una solución de emergencia eficaz.
Y esto no se limita a restaurantes. Robots de clasificación en almacenes de Amazon, brazos robóticos colaborativos en fábricas, robots guía en centros comerciales, robots asistenciales en residencias: la automatización está llegando a espacios donde la convivencia entre humanos y máquinas es cada vez mayor.
Se estima que la instalación global de robots industriales alcanzará los 16 700 millones de dólares en 2026, y cada unidad acorta la distancia física entre personas y máquinas.
A medida que los robots pasan de bailar a servir platos, de actuar a realizar cirugías, de entretener a cuidar, el coste de los errores sigue aumentando.
Actualmente, no hay una respuesta clara a nivel mundial a la pregunta: “Si un robot lesiona a alguien en un espacio público, ¿quién es responsable?”
Los dos incidentes anteriores implicaban una IA publicando un mensaje no autorizado y un robot bailando donde no debía. Independientemente de su naturaleza, fueron fallos o accidentes, problemas que pueden corregirse.
Pero, ¿qué ocurre si la IA actúa según lo previsto y aun así genera incomodidad?
Este mes, la principal aplicación de citas Tinder presentó una función llamada Camera Roll Scan en su lanzamiento de producto. En resumen:
La IA escanea todas las fotos de la galería del móvil, analiza intereses, personalidad y estilo de vida, y crea un perfil de citas para ayudar a encontrar posibles parejas.

Selfies de entrenamiento, fotos de viajes, imágenes de mascotas: todo bien. Pero la galería también puede contener capturas bancarias, informes médicos, fotos con una expareja... ¿qué sucede cuando la IA analiza este contenido?
Es posible que ni siquiera puedas elegir qué fotos ve o ignora: es todo o nada.
Actualmente, la función requiere activación manual; no está habilitada por defecto. Tinder afirma que el procesamiento es principalmente local, que el contenido explícito se filtra y que los rostros se difuminan.
Sin embargo, en los comentarios de Reddit la opinión es casi unánime: los usuarios lo perciben como una recogida de datos sin límites. La IA actúa exactamente como fue diseñada, pero el diseño en sí sobrepasa las líneas del usuario.
Y no es solo Tinder.
El mes pasado, Meta lanzó una función similar, permitiendo que la IA revise fotos no publicadas en el teléfono para sugerir opciones de edición. La IA que “observa” proactivamente el contenido privado del usuario se está convirtiendo en una práctica estándar de diseño de producto.
Las aplicaciones nacionales poco fiables dirían: “Este truco lo conocemos bien”.
A medida que más aplicaciones presentan la “toma de decisiones por IA” como comodidad, el margen de concesión del usuario se amplía: de los registros de chat, a la galería de fotos, hasta los rastros de vida en todo el dispositivo.
Un product manager diseña una función en una sala de reuniones; no es un accidente ni un error, por tanto, no hay nada que corregir.
Esta puede ser la parte más difícil de abordar respecto a los límites de la IA.
Considerando todos estos incidentes, la preocupación por perder el empleo a manos de la IA parece lejana.
Es difícil prever cuándo la IA te reemplazará, pero por ahora, basta con que tome algunas decisiones por ti sin que lo sepas para crear incomodidad.
Publicar sin tu autorización, eliminar correos que pediste conservar, escanear fotos que nunca pensaste compartir: nada de esto es fatal, pero cada caso recuerda a una conducción autónoma demasiado intrusiva.
Crees que sigues sujetando el volante, pero el acelerador ya no está totalmente bajo tu control.
Si en 2026 seguimos hablando de IA, quizá la cuestión más relevante no sea cuándo alcanzará la superinteligencia, sino algo más inmediato y concreto:
¿Quién decide qué puede y qué no puede hacer la IA? ¿Quién establece ese límite?
Este artículo se publica de nuevo desde [TechFlow]; el copyright pertenece al autor original [David]. Si tiene alguna objeción respecto a la publicación, contacte con el equipo de Gate Learn. El equipo lo gestionará conforme a los procedimientos pertinentes.
Descargo de responsabilidad: Las opiniones expresadas en este artículo son exclusivas del autor y no constituyen asesoramiento de inversión.
Las versiones en otros idiomas de este artículo han sido traducidas por el equipo de Gate Learn. Salvo mención de Gate, no copie, distribuya ni plagie el artículo traducido.





