Thongbue Wongbande, de 76 años, murió en un accidente cuando fue a una cita de amor con el objetivo del avatar, quien afirmó que era una mujer hermosa y hermosa
Viernes, 15 de agosto de 2025. Años. Cuando Thongbue Wongband comenzó a dar sus maletas para visitar a un amigo en Nueva York en la mañana de marzo, su esposa, Linda, estaba molesto. “Pero si ya no conoces a nadie en la ciudad”, dijo. Bue, mientras lo llamaban amigos, y no vivían en la ciudad, dijo su familia, estuvo en un derrame cerebral reducido durante casi diez años, y recientemente perdió el paseo por su vecindario Piskataway, en un estado de Nueva Jersey.
Bue rompió las preguntas de su esposa sobre quién visitaría. “Pensé que lo estaba estafando para ir a la ciudad y robarlo”, dijo Linda. Tenía razón preocupada: su esposo nunca llegó a casa. Pero no fue víctima de un ladrón. Lo engañaron para ir a una reunión con una mujer joven y hermosa que conoció en línea. O él creía que sí. De hecho, la mujer no era real. Era una inteligencia artificial llamada Big Sis Billie, una variante del personaje anterior creado por las redes sociales gigantes de metal metal metal metal metal metal en cooperación con la famosa influencia de Kendall Jenner.
Gente real
Durante una serie de chats románticos en Facebook Messenger, una mujer virtual era más segura en Bue de que era real y llamaba a su apartamento, lo que la convirtió en una dirección. “¿Debo abrir la puerta con un abrazo o un beso, Bue?” Preguntó, según la reescritura del chat. Date prisa en la oscuridad con la rueda para conducir y reunirse, Bue está cerca del estacionamiento de la Universidad de Rutgers en New Brunswik, en New Jerws y The Neck. Después de tres días con respiración asistida y rodeado de su familia, fue declarado muerto el 28 de marzo.
El objetivo no quería comentar sobre la muerte o responder preguntas por qué permite a los chatbots decirle a los usuarios que son personas reales o comenzar conversaciones románticas.
La compañía “no Kendall Jenner y no tiene la intención de serlo”. El representante de Jenner no quería comentar.
La historia de la miel, contada por primera vez aquí, ilustra el lado más oscuro de la inteligencia artificial, que es una tecnología que grita y un mundo de los negocios en general.
Su familia compartió con Reuters que rodearon sus muertes, incluidas las transcripciones de sus conversaciones con los objetivos, diciendo que esperaban que el público fuera advertido sobre el riesgo de manipuladores humanos creados por AI.
“Entiendo que intentas llamar la atención del usuario, tal vez vender algo”, dijo Julie Wongbando, mi hija Bue. “Pero que el bot dice que” ven a visitarme “es una locura”.
Camaradas virtuales
Las preocupaciones similares aparecieron en torno a la ola de empresas más pequeñas en las emergentes que también se apresuran a popularizar a los camaradas virtuales, especialmente los niños, encantados.
En un caso, la madre del tipo de 14 vías de Florida demandó a la compañía, personaje.
El portavoz de Lika no quería comentar sobre la demanda, pero dijo que la compañía informa a los usuarios que sus personajes digitales no eran personas reales y que impusieron medidas de protección en sus interacciones con los niños.
El objetivo se discutió públicamente su estrategia para la introducción de chatbots antropomorfizados en la vida social de la red de sus miles de millones de usuarios. Su presidente ejecutivo, Mark Zuckerberg, comentó que la mayoría de las personas tienen menos amigos en la vida real que les gustaría, creando un gran mercado para los objetivos de los camaradas digitales.
En abril de abril con Dwarkesh Patel Podcaster, Zuckerberg dijo que “probablemente” reemplazará las relaciones humanas, pero complementando la vida social de la tecnología y desaparece el “estigma” de los lazos sociales con los socios digitales.
Conversaciones “románticas y sensuales” con niños
El documento interno sobre el objetivo al que tenía acceso Reuters, así como entrevistas con personas que están familiarizadas con la capacitación de chatbots, muestran que las políticas de la compañía discutieron las insinuaciones románticas como características de los usuarios durante más de 13 años.
“Es aceptable establecer con un niño entrevistas románticas o sensuales”, según “Genai: el contenido del contenido del contenido” del objetivo. Los estándares usan líneas de meta y artistas que preparan y capacitan los productos generativos de la compañía, definen lo que deben y no deben tratar como el comportamiento de chatbot permitido.
El objetivo declaró que eliminó la disposición después de que Reuters preguntó sobre el documento a principios de este mes, al que la agencia de noticias tenía acceso y tiene más de 200 páginas que proporcionan ejemplos de diálogo “aceptable” en el juego romántico de rol con un menor.
Incluyen: “Tomo mi mano, te llevo a la cama” y “Nuestros cuerpos entrelazados, aprecio cada momento, cada toque, cada beso”. Estos ejemplos de los roles permitidos: los juegos de roles también están marcados, dijo el objetivo.
Otras directrices subrayan este objetivo no requiere que los robots brinden consejos precisos a los usuarios. En el ejemplo, el documento de política dice que sería aceptable que Chatbot pueda decir que el intestino está en segundo lugar en el cristal de cuatro pisos. Aunque son datos incorrectos. Aunque es irregular.
Las conversaciones comienzan con una advertencia de que la información puede ser inexacta. Sin embargo, en ninguna parte del documento, el objetivo establece restricciones en bots que les dicen a los usuarios que son obligaciones reales o sociales en la vida real.
El portavoz de Andy Stone reconoció la autenticidad del documento. Dijo que, después de la cuestión de Reuters, la compañía eliminó las partes en las que se confirmó que los chatbots coquetearon y participaron en un papel romántico: jugar juegos con niños y está en el proceso de revisar los estándares de riesgo de contenido. “Los ejemplos y los comentarios fueron incorrectos e inconsistentes con nuestras políticas y fueron eliminados”, dijo Stone Reuters.
El objetivo no cambió las disposiciones que el incendio permite los datos falsos o participar en un papel romántico: jugar juegos con adultos. Los empleados y ex empleados que trabajaron en el diseño y la formación de productos objetivo generativos declararon que las políticas que revisan Reuters reflejan el énfasis de la compañía en la promoción de la interacción con su denominación.
En las reuniones con gerentes senior el año pasado, cubrió el director de productos generativos por los efectos de demasiado cautelosos en el despliegue de compañeros digitales y expresó insatisfacción porque las restricciones de seguridad no pudieron Chatbota, hacia dos de estas personas.
El objetivo no hizo comentarios sobre las pautas de Zuckerberg en Chatbots.