
Asesina en serie – Algunos especialistas alertan de que estos sistemas pueden responder a temas sensibles si una conversación se alarga o si las preguntas se formulan de manera indirecta
El mismo sistema que ayuda a resolver pequeñas dudas domésticas también puede revelar mucho más de quien lo usa. ChatGPT permite preguntar cosas tan normales como si una pared soportará el peso de un cuadro, pero también responde a dudas sobre medicamentos, mezclas peligrosas o riesgos para la vida humana.
Cada consulta deja un rastro que queda almacenado en los registros de uso. Esa información forma una huella digital que investigadores y empresas pueden revisar cuando ocurre un delito.
De ese modo, una simple serie de preguntas puede terminar convertida en una prueba dentro de una investigación criminal.
Un caso en Asia oriental sitúa esas consultas en el centro de una investigación
Un caso reciente en Corea del Sur mostró hasta qué punto esas búsquedas pueden resultar determinantes. La policía concluyó que una mujer consultó a ChatGPT antes de dos muertes que ahora se investigan como asesinatos. Según The Korea Herald y la BBC, la sospechosa dio bebidas con sedantes a dos hombres jóvenes y ambos fallecieron después de ingerirlas.
Los investigadores hallaron en su historial preguntas sobre los efectos de tomar pastillas para dormir junto con alcohol y sobre si esa combinación podría causar la muerte. Esas consultas llevaron a los agentes a considerar que existía intención previa.
<!–[if IE 9]><![endif]–>

Fiscales revisan consultas sobre sedantes, alcohol y dosis peligrosas
La investigación también incluyó una evaluación psicológica. Según South China Morning Post, la mujer obtuvo una puntuación alta en la llamada lista revisada de psicopatía.
Ese examen mide veinte rasgos relacionados con impulsividad, falta de empatía o conducta irresponsable. El resultado máximo posible es 40 puntos y una puntuación igual o superior a 25 se considera compatible con psicopatía.
Los investigadores del Seoul Gangbuk Police Station informaron de que la evaluación de la sospechosa superó ese umbral y enviaron el resultado a la fiscalía para preparar el caso.
La cronología policial reconstruye varios episodios ocurridos entre diciembre y febrero
Los hechos investigados abarcan varios meses.
La policía sitúa el primer intento el 14 de diciembre, cuando la mujer dio a su entonces pareja una bebida con benzodiacepinas en un aparcamiento de cafetería en Namyangju, en la provincia de Gyeonggi. El hombre perdió el conocimiento pero sobrevivió.
El 28 de enero, según los investigadores, la sospechosa entró en un motel del barrio de Suyu en el distrito de Gangbuk con otro hombre de unos veinte años y salió sola dos horas después. Al día siguiente el joven apareció muerto en la cama de la habitación.
Un episodio similar ocurrió el 9 de febrero en otro motel del mismo distrito.
Las consultas registradas en el chatbot se volvieron una pieza importante del caso. De acuerdo con Chosun Daily, la mujer preguntó al sistema varias cosas antes de los hechos. Entre ellas figuraban dudas como “qué ocurre si se toman pastillas para dormir con alcohol” y “qué cantidad se considera peligrosa”.
<!–[if IE 9]><![endif]–>

Familiares de una víctima piden que se haga público el nombre
Un investigador citado por The Korea Herald afirmó que “Kim preguntó repetidamente en ChatGPT sobre medicamentos”. El mismo agente añadió que “era plenamente consciente de que beber alcohol junto con fármacos podía causar la muerte”. Tras examinar ese historial, los fiscales cambiaron el cargo inicial de causar lesiones con resultado de muerte por dos acusaciones de asesinato.
La decisión de no revelar públicamente la identidad de la sospechosa generó una fuerte reacción social. Según Korea JoongAng Daily, la familia de una de las víctimas pidió que se hiciera público el nombre.
El abogado Nam Eon-ho transmitió su postura: “Los crímenes de la sospechosa han quedado demostrados por pruebas abrumadoras”. También mencionó imágenes de cámaras de seguridad, confesiones y datos forenses.
Mientras tanto, un mensaje en internet difundió supuestos datos personales de la mujer. The Korea Times informó de que una cuenta de redes sociales vinculada a ella pasó de unos 200 seguidores a más de 11.000 en apenas diez días antes de que fuera puesta en modo privado.
Otros episodios recientes reabren el debate sobre supervisar diálogos con inteligencia artificial
El caso se produce en un momento de debate sobre el control de las conversaciones con sistemas de inteligencia artificial. El The Wall Street Journal reveló recientemente que un sistema automático de revisión detectó diálogos inquietantes de un joven de 18 años en la provincia canadiense de Columbia Británica antes de un tiroteo masivo. A
lgunos empleados de OpenAI pidieron avisar a las autoridades, aunque finalmente no se hizo. El ataque terminó con ocho muertos, incluido el propio autor.
Estos episodios han intensificado la discusión sobre cómo vigilar el uso de chatbots y qué responsabilidad tienen las empresas cuando aparecen señales de riesgo en las conversaciones registradas.













