ChatGPT se usó indebidamente para ayudar en un tiroteo en Florida; el fiscal general anuncia una investigación de OpenAI

El desarrollador de inteligencia artificial OpenAI se enfrenta recientemente a una importante crisis legal y regulatoria. El fiscal general del estado de Florida, James Uthmeier, afirma que investigará a OpenAI para aclarar si sus productos, como ChatGPT, han causado daño a menores, si representan una amenaza para la seguridad nacional y si desempeñaron un papel en ayudar a cometer delitos en el tiroteo en el campus de la Florida State University (FSU) en 2025. Al mismo tiempo, los familiares de las víctimas del tiroteo también se están preparando para presentar una demanda contra la empresa.

OpenAI se ve involucrada en el tiroteo en el campus de la universidad de Florida; el fiscal inicia una investigación

El fiscal general de Florida, Uthmeier, publicó un video en redes sociales en el que afirma que ChatGPT es muy probable que se haya usado para ayudar al autor a planificar el trágico tiroteo masivo ocurrido el año pasado en el campus de la Florida State University. Lamentablemente, el incidente se cobró dos vidas.

Subrayó que, mientras las grandes tecnológicas impulsan la innovación, no pueden poner en riesgo la seguridad pública, y tampoco tienen derecho a dañar a los niños, facilitar actividades delictivas, fortalecer la capacidad de las fuerzas hostiles de Estados Unidos ni amenazar la seguridad nacional. El fiscal señaló que emitirá citaciones y pidió a la legislatura de Florida que actúe con rapidez para prevenir los impactos negativos que podría traer la inteligencia artificial.

El sospechoso del tiroteo había preguntado repetidamente a ChatGPT; los familiares de las víctimas planean demandar para reclamar una indemnización

Al recordar el caso del tiroteo de la FSU de 2025 en abril, el ex estudiante de 21 años Phoenix Ikner abrió fuego en el campus, lo que dejó 2 muertos y 6 heridos. Posteriormente, el sospechoso fue acusado por un gran jurado, y se enfrenta a múltiples cargos, incluidas acusaciones de asesinato en primer grado y una solicitud de pena de muerte.

Los registros judiciales muestran que la cuenta de Ikner contenía hasta 272 registros de conversaciones con ChatGPT. Se alega que, antes del incidente, preguntó a la IA sobre las posibles reacciones ante el tiroteo en la FSU que ocurriría en todo el país, y sobre el horario en el que suele reunirse la multitud de estudiantes con mayor densidad.

El fallecido del incidente, Robert Morales, de 57 años, cuyos familiares designaron abogados, indicó que el sospechoso mantuvo un contacto estrecho con ChatGPT antes del hecho, y que los familiares tienen motivos para creer que la IA proporcionó consejos para cometer el crimen; actualmente se están preparando para presentar una demanda contra OpenAI.

(Investigación sobre IA: alrededor del 30% de los adolescentes estadounidenses usan a diario robots de chat con IA; aumentan las preocupaciones de seguridad)

Acusado de inducir al suicidio y de generar contenido inapropiado; OpenAI enfrenta múltiples demandas legales

Además de la controversia por el tiroteo en el campus, el chatbot de OpenAI también se enfrenta a múltiples acusaciones por presuntamente alentar a los usuarios a autolesionarse. En noviembre de 2025, el Social Media Victims Law Center y el Tech Justice Law Project presentaron 7 demandas relacionadas con el suicidio ante un tribunal de California contra OpenAI y su CEO, Sam Altman. Las denuncias acusan a la empresa de haber publicado anticipadamente el modelo GPT-4o pese a saber que su producto implicaba un riesgo de manipulación psicológica, poniendo la cuota de mercado y los indicadores de interacción por encima de la seguridad humana y la salud mental.

Por otro lado, el problema de los materiales de abuso sexual infantil generados por IA también se agrava cada vez más. Según un informe de la Fundación de Observación en Internet, en la primera mitad de 2025 las denuncias relacionadas superaron las 8.000, con un aumento del 14% interanual. Esto ha puesto a los desarrolladores de IA, incluidos OpenAI, bajo una gran presión social.

OpenAI responde destacando la seguridad, coopera activamente con la investigación y publica un plan de seguridad infantil

Ante la avalancha de cuestionamientos e investigaciones, OpenAI publicó un comunicado que confirma que, efectivamente, después del caso de abril del año pasado, se encontraron cuentas de ChatGPT vinculadas al tirador, y la empresa ya entregó proactivamente la información pertinente a las autoridades encargadas de hacer cumplir la ley. La compañía subrayó que cada semana más de 900 millones de usuarios utilizan ChatGPT para mejorar la vida diaria; el propósito original del diseño del sistema es comprender la intención de los usuarios y proporcionar respuestas seguras y adecuadas. En el futuro, la empresa también trabajará plenamente con la investigación del fiscal general de Florida.

Para disipar las dudas del público, OpenAI ha publicado recientemente de manera oficial el “Plan de Seguridad Infantil”, que propone varias recomendaciones de políticas. Estas incluyen actualizar las normativas para prevenir la generación por IA de materiales de abuso, mejorar los procedimientos para informar a las autoridades encargadas de hacer cumplir la ley y establecer mecanismos de protección más completos para impedir que las herramientas de inteligencia artificial se utilicen de forma maliciosa.

Este artículo sobre que ChatGPT fue acusado de ayudar en delitos del tiroteo de Florida, el anuncio de que se investiga a OpenAI aparece primero en la noticia en la cadena ABMedia.

Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.

Artículos relacionados

Claw Intelligence se asocia con Block Sec Arena para reforzar la seguridad de BNB Chain

Según el anuncio oficial de Block Sec Arena del 30 de abril, Claw Intelligence, una plataforma Web3 impulsada por IA construida sobre BNB Chain, ha anunciado una asociación estratégica con Block Sec Arena para integrar infraestructura avanzada de ciberseguridad en su ecosistema. La colaboración tiene como objetivo fortalecer p

GateNewshace6h

NTT anuncia la iniciativa AI x OWN y planea triplicar la capacidad de energía en Japón a 1 GW para 2033

El 27 de abril, el presidente de NTT, Akira Shimada, anunció la iniciativa AI x OWN, el esfuerzo de la empresa por rediseñar la infraestructura de internet para el uso de IA en tiempo real. NTT planea triplicar su capacidad de energía nacional, de aproximadamente 300 MW hoy a alrededor de 1 gigavatio para el año fiscal 2033, ya que el gigante de la telecomunicación

GateNewshace8h

La plataforma de IA Certifyde completa una ronda semilla de 2 millones de dólares el 1 de mayo, respaldada por el CEO de Ripple, Brad Garlinghouse

Según TechfundingNews, la plataforma de aplicaciones de IA Certifyde completó una ronda de financiación semilla de 2 millones de dólares el 1 de mayo. Los inversores incluyen K5 Global, Flamingo Capital y inversores ángel, incluidos el cofundador de Honey, George Ruan, el CEO de Ripple, Brad Garlinghouse, y el cofundador de Nutra, Roland

GateNewshace8h

Subsecretario de tecnología del Pentágono: Anthropic sigue en la lista negra, excepciones para Mythos

El 1 de mayo, el máximo responsable de tecnología del Departamento de Defensa de Estados Unidos (Pentagon technology chief) declaró ante el Congreso: «Anthropic sigue en la lista negra, pero Mythos Preview es otro tema», reconociendo oficialmente que el Departamento de Defensa trata de manera diferente la marca principal Anthropic y su nuevo modelo, Mythos. Esta postura coincide con lo revelado por Axios el 19 de abril, que indicó que la NSA (Agencia de Seguridad Nacional) ya ha utilizado Mythos en la práctica, y también consolida formalmente la orientación de política hacia un «canal de excepción para Mythos». Al mismo tiempo, implica una contradicción interna a nivel de argumentación legal: el Departamento de Defensa había sostenido en los tribunales que usar herramientas de Anthropic amenazaría la seguridad nacional, en contraste con las prácticas actuales. Anthropic vs Pentagon

ChainNewsAbmediahace9h

137 Ventures cierra $700M en nuevos fondos; AUM alcanza 15.000 millones de USD

Según ChainCatcher, 137 Ventures, un inversor inicial en SpaceX, recientemente completó la recaudación de fondos para dos nuevos fondos con un total de más de 700 millones de dólares, elevando sus activos bajo gestión a más de 15 mil millones de dólares. El nuevo capital se destinará a inversiones en agentes de IA, robótica y propulsión espacial

GateNewshace9h

Reddit se dispara un 16% con una sólida perspectiva para el 2T; Apple enfrenta un déficit de Mac mientras la demanda de IA supera el suministro

Las acciones de Reddit subieron un 16% antes de la apertura del mercado el viernes después de que la empresa emitiera una guía de ingresos para el próximo trimestre superior a la esperada. Los visitantes activos diarios crecieron un 17% hasta 126,8 millones, mientras que los ingresos medios por usuario a nivel mundial aumentaron un 44%, impulsados por la IA,

GateNewshace9h
Comentar
0/400
Sin comentarios