OpenAI se disculpa por no alertar sobre autora de tiroteo
Fotos: Wikipedia
El director de OpenAI se disculpó por no haber alertado a la Policía sobre una usuaria que había mostrado interés en actividades violentas. Esta usuaria asesinó a dos miembros de su familia y luego perpetró un tiroteo masivo en una escuela de Canadá en febrero.
La noticia ha generado preocupación sobre la responsabilidad de las empresas tecnológicas en la prevención de delitos. La Fiscalía General de Florida también anunció una investigación para demostrar la responsabilidad de ChatGPT en un ataque en una universidad de EE. UU.
La empresa OpenAI ha enfrentado críticas por no tomar medidas adecuadas para prevenir el uso de su tecnología para fines dañinos. La empresa debe tomar medidas para evitar que su tecnología sea utilizada para cometer delitos, dijeron.
La investigación y las consecuencias de estos incidentes pueden tener un impacto significativo en la forma en que se regulan las empresas tecnológicas en el futuro. La pregunta es qué medidas se deben tomar para prevenir que las tecnologías como ChatGPT sean utilizadas para fines dañinos.
¿Qué medidas crees que se deberían tomar para evitar que las tecnologías como ChatGPT sean utilizadas para fines dañinos? Dinos lo que piensas.
¿Es real esta noticia?
Análisis de fuentes, coherencia factual y contexto en tiempo real.



