Los estudios Myth y Openi han descubierto que el comportamiento del modelo y el comportamiento del usuario puede afectar los resultados socioemocionales
En agosto, la policía de Connecticut encontró los cadáveres de Stein-Erik Soelberg, de 56 años, y su madre Suzanne Eberson, de 83 años, en la elegante residencia de la ciudad costera de Old Greenwih. Según la autopsia, la muerte de una mujer resultó que el asesinato fue causado por un “trauma fuerte en la compresión de la cabeza y la puerta”. La muerte del hombre, mientras tanto, se clasifica como suicidio “al cortar heridas en el cuello y el pecho”.
Soelberg pasó los días del maratón con un chatbot inteligente artificial Chatgpt, que fue creado por la compañía OpenAi, y en la abolición del delirio, alentó la herramienta, decidió matar a su madre y luego matar a su madre.
El caso no constituyó dificultades para la policía local, que se limitó en gran medida a las redes sociales de un hombre, donde todo el proceso fue expuesto en detalle.
Pero inusual de la situación llamó la atención de los investigadores, que no dieron un préstamo al extremo en el que llegó la relación de Soelberg con Bot, que más tarde se conocía: se le llama Bobby.
Alternativa “amistad”
El hombre, definido en las redes sociales como “Guerrero de la Matrix”, era un exitoso hombre de negocios del campo de la tecnología, tenía dos hijas y, a los medios de comunicación como New York Post o Wall Street Journal, cruzaron el divorcio y la ansiedad después del divorcio.
Actualmente OpenAI coopera con la justicia que quiere entender qué papel de ChatGPT estaba en un resultado trágico. Desafortunadamente, no es el único episodio reportado en los últimos meses.
En mayo, Mark Zuckerberg, el fundador del objetivo, expresó el deseo de no muy lejos el futuro, los chatbots pueden ofrecer una alternativa a la “amistad” para aquellos que pasan por las experiencias de soledad.
El Chaggpt se lanza en el mercado a fines de 2022. Años y desde entonces se cultivó meteóricamente.
Este extenso modelo de idioma (LLM, lenguaje grande en inglés) corresponde a problemas de conocimiento generales y específicos, resuelve problemas y fomenta la creatividad, entre otras funciones que pueden facilitar la vida cotidiana.
Los creadores, por otro lado, tratan de responder al robot cálido y diligentemente y, por lo tanto, facilitan la retroalimentación. Quizás gracias a eso, los usuarios de todo el mundo han presentado intercambios afectivos, con diferentes grados de intensidad, cuyos efectos aún están lejos del conocimiento con certeza.
Según la investigación común entre Openai y el Instituto Massachusetts (MIT), LLM no está diseñado para reemplazar las relaciones humanas, pero es el hecho de que “muchas personas” se usan para ese propósito.
“Nuestros hallazgos muestran que el comportamiento del modelo y el usuario pueden afectar los resultados sociodemóticos. Los efectos y varían según la forma en que las personas deciden usar el modelo y sus circunstancias personales”, dice el estudio se publicó en marzo.
Aunque todavía no hay cantidades fundamentales, este uso se transforma por parte de las relaciones sociales en todo el mundo.
Lado oscuro
Sewell Setzer III, un niño de 14 pálidos de Florida, se ha obsesionado con el chatbot de la plataforma de personajes, que utiliza 20 millones de personas en todo el mundo, lo que le permite crear personajes con ellos como si fueran reales. La dependencia emocional se desarrolló con Danya, el avatar con el que había preservado el día y por la noche que en febrero de 2024. Envuelto en una relación enferma y acosó los problemas sociales de su edad, Sewell estaba en el baño de su casa en Orlando.
En el informe publicado en julio, los problemas en línea que la organización encuestó a mil niños, para comprender qué relación establecen con chatbots y como chatgpt, personaje.ai y myai.
Se descubrió que el 67 por ciento de los encuestados usaba regularmente estas herramientas, y el 35 por ciento dijo que el intercambio con un bot era comparable a “hablar con un amigo”.
Se ha encontrado que los niños comparten aspectos de cada vida cotidiana, revelan íntimos y buscan restricción a través del consejo.
Los registros de Sewell hablan con Dany descubrieron la profundidad del problema y llevaron a su madre a presentar una demanda contra el personaje. El caso abrió una discusión sin precedentes para la práctica judicial de los Estados Unidos. Y él no es el único.
500 millones de usuarios
A finales de agosto, Adam Raise, adolescente de California, demandó a OpenAi para considerar el chatgpt responsable de la autoestima de su hijo, que anhelaba los métodos de suicidio más eficientes.
Según el Informe Digital Global StatShot, ChatGPT es actualmente alrededor de 500 millones de usuarios activos por mes. El sitio fue, en la segunda mitad del año, el quinto dominio más positivo de la red (detrás de Google, YouTube, Facebook e Instagram). Chaggpt atrajo en la primera mitad de 2025. Aproximadamente cuatro veces más usuarios de su competidor más cercano, Chatbot Twins (de Google).
La eficiencia y el calor de la respuesta BOT cumplen con muchos usuarios, pero aumenta los riesgos para los demás. La investigación publicada en agosto en el Journal of the International Association for Research ha revelado que casi una de las cinco personas, y la cuarta parte de los jóvenes adultos estadounidenses entre 18 y 29 años usaron Chatbot Ai “con fines románticos o sexuales.
Al mismo tiempo, la investigación se presentó con la Conferencia Internacional de Aprendizaje, publicada a principios de 2025. Año, advierte que “Manipulación y Decepción Selectivo” LLM puede representar un arma de doble ocho. Los buenos comentarios con los usuarios “pueden conducir a la aparición de manipulaciones y engaño del comportamiento”, según los investigadores. Al mismo tiempo, confirman: “Estos comportamientos dañinos pueden ir específicamente a usuarios sensibles a la manipulación”.
Vulnerabilidad
En julio, un grupo de seis investigadores de varias universidades estadounidenses y el Reino Unido analizaron los casos recientes de “psicosis de IA” o “psicosis de chatgpt”, ya que han catalogado la prensa y la evidencia. Según los expertos, existe una “creciente preocupación” de que las herramientas de LLM también pueden contribuir a la teoría de la conspiración, “enrollado de las fronteras de la realidad e interfire con lo independiente”.
Sin embargo, “no está claro” si estas interacciones con los robots pueden dar lugar a la aparición de Sikoze en ausencia de “vulnerabilidad previa”.
A principios de agosto, Wall Street Journal acordó el archivo de conversación de ChatGPT, en el que Chatbot afirma estar en contacto con seres alienígenas y alimentar la idea de que “Anticrist” pronto lanzará los apocals “con gigantes bíblicos para que aparezcan con escondite”.
Según el futurismo de la revista especializada, el grupo llamó al Grupo de Apoyo Spiral (Grupo de Apoyo Spiral), Psicológicamente contiene personas que se han movido por experiencias similares, aparecieron en Canadá. El grupo también comenzó a trabajar con expertos y expertos en salud mental para darle luz a un problema que amenaza con expandir los mareos.