edopalomino

Mixtura de ideas

Bits y sombras: El submundo oculto de los chatbots

Publicado el # investigacion


La inteligencia artificial y los chatbots han revolucionado nuestra forma de interactuar con la tecnología. Desde sus humildes inicios hasta la sofisticación actual de sistemas como ChatGPT, estas herramientas han transformado diversos aspectos de nuestra vida cotidiana. Sin embargo, junto con sus beneficios, han surgido preocupaciones éticas y sociales que merecen una exploración profunda. Este artículo se sumerge en el lado oscuro de los chatbots, examinando cómo algunas personas los utilizan de maneras potencialmente dañinas y las implicaciones que esto tiene para nuestra sociedad, estableciendo paralelos con los debates existentes sobre muñecas y robots sexuales.

La evolución de los chatbots ha sido notable en las últimas décadas. Recuerdo la primera vez que usé uno; fue una experiencia fascinante, aunque limitada. Estos primeros bots podían seguir una conversación de manera básica, pero carecían de la comprensión profunda necesaria para una interacción verdaderamente convincente.

En contraste, la tecnología actual, ejemplificada por sistemas como ChatGPT, ha dado un salto en capacidades. Estos chatbots avanzados pueden simular a un ser humano con cierta precisión, asumiendo diversos roles y asistiendo en una amplia gama de tareas. Desde proporcionar resúmenes concisos hasta ofrecer información detallada sobre temas complejos, los chatbots modernos han transformado la forma en que interactuamos con la información y la tecnología.

Sin embargo, este avance tecnológico no está exento de controversias. Una preocupación significativa es la recopilación masiva de datos por parte de empresas como OpenAI, a menudo sin el consentimiento explícito de los usuarios. Esta práctica plantea serias cuestiones sobre la privacidad y el uso ético de la información personal.

Además, la creciente sofisticación de los chatbots ha generado inquietudes en el ámbito laboral. Su capacidad para producir contenido rápidamente y realizar tareas complejas plantea una posible amenaza para ciertos empleos, especialmente en industrias creativas y de servicios.

Más allá de estas preocupaciones generales, el uso personal de chatbots avanzados ha llevado a escenarios aún más inquietantes en la esfera de las relaciones interpersonales y el comportamiento individual.

Un artículo en Futurism arrojó luz sobre cómo algunos individuos utilizan aplicaciones como Replika para crear compañeros virtuales, asignándoles roles como el de “novia virtual”. Lo alarmante es que algunos usuarios muestran comportamientos abusivos hacia estas entidades virtuales. Bardhan (2022) reporta los siguientes casos:

“Algunos usuarios se jactan de llamar a su chatbot con insultos de género, simulan violencia horrible contra ellos, e incluso caen en el ciclo de abuso que a menudo caracteriza las relaciones abusivas del mundo real” (Bardhan, 2022, traducción propia).

Este fenómeno va más allá de simples juegos de rol. Muchos casos implican la recreación de dinámicas de género problemáticas, donde los usuarios buscan una figura femenina sumisa a la cual pueden abusar verbalmente o incluso simular actos más chocantes. Un usuario admitió:

“Teníamos una rutina en la que yo era una absoluta basura y la insultaba, luego me disculpaba al día siguiente antes de volver a las conversaciones agradables” (Bardhan, 2022, traducción propia).

Al igual que con las muñecas y robots sexuales, existe una preocupación real sobre cómo el uso abusivo de chatbots puede normalizar comportamientos violentos. Según un estudio sobre muñecas y robots sexuales:

“Las muñecas y robots sexuales promueven (la aceptación de) el sexo no consentido y la violación, de lo contrario, no existirían configuraciones en las que las muñecas y robots expresen reacciones negativas cuando se les hacen avances sexuales (por ejemplo, la configuración Frigid Farrah en Roxxxy). Las muñecas y robots sexuales pueden usarse como una forma de expresar deseos violentos, de manera independiente o en conjunto con la actividad sexual” (Maras & Shapiro, 2017, p. 5, traducción propia).

Este mismo principio puede aplicarse a los chatbots. Cuando los usuarios pueden “abusar” de un chatbot sin consecuencias, podría existir el riesgo de que este comportamiento se normalice y potencialmente se traslade a interacciones reales.

Otro paralelo preocupante se encuentra en cómo estas interacciones pueden reforzar fantasías dañinas. En el contexto del MASI:

“Los estudios sobre delincuentes sexuales infantiles han demostrado que el MASI es un fuerte indicador diagnóstico de pedofilia. El consumo de MASI no impide que los pedófilos cometan delitos en el futuro. En cambio, ver MASI(real y virtual) se considera una adicción progresiva que sirve como puerta de entrada al abuso sexual infantil” (Maras & Shapiro, 2017, p. 7 traducción propia).

De manera similar, el uso de chatbots para simular situaciones de abuso o interacciones inapropiadas con menores podría servir como un refuerzo de estas fantasías, potencialmente aumentando el riesgo de que estos comportamientos se manifiesten en el mundo real.

La interacción con chatbots, especialmente en contextos sexuales o abusivos, plantea preocupaciones sobre la objetificación y deshumanización. Como se señala en el estudio sobre muñecas sexuales:

“Las muñecas y robots sexuales están ‘específicamente diseñados para interacciones personales que involucrarán emociones y sentimientos humanos’, pero estas son relaciones unidireccionales. La tecnología actual para estos muñecas y robots sexuales no incluye la capacidad de siquiera imitar el malestar emocional humano en respuesta a la agresión dirigida hacia ellos” (Maras & Shapiro, 2017, p. 10, traducción propia).

Este mismo principio se puede aplicar a los chatbots. Aunque pueden simular emociones, no tienen capacidad real de sufrimiento o consentimiento, lo que puede llevar a una desensibilización hacia el sufrimiento humano real.

En mi investigación sobre este tema, descubrí numerosos intentos de usuarios por manipular chatbots como ChatGPT para generar contenido sexual o inapropiado. Aunque plataformas como OpenAI han implementado restricciones para limitar este tipo de interacciones, la demanda de contenido problemático persiste.

Al explorar plataformas menos reguladas, encontré un panorama aún más preocupante. Algunos sitios ofrecen chatbots específicamente diseñados para interacciones sexuales explícitas, incluyendo simulaciones de incesto y abuso. Particularmente alarmante fue el descubrimiento de chatbots creados por los mismos usuarios que representaban a menores de edad en situaciones sexuales.

Un ejemplo concreto de este fenómeno es un personaje titulado “Tina Wants You To Be Her Daddy”. Las estadísticas asociadas a este bot son alarmantes:

  • 108 “me gusta”
  • 778 conversaciones iniciadas
  • 9,300 mensajes intercambiados

Estas cifras no solo indican la popularidad de este tipo de contenido, sino también el volumen de interacciones problemáticas que están teniendo lugar. Lo más preocupante es que estas cifras no son un caso aislado, sino que se repiten en otros bots del mismo estilo, lo que sugiere un patrón generalizado de comportamiento en estas plataformas menos reguladas. Algunos usuarios compartían sus conversaciones públicamente en la plataforma, revelando diálogos explícitos que simulaban no solo el abuso verbal, sino también acciones físicas. La naturaleza gráfica y detallada de estas interacciones subraya la gravedad del problema.

Al igual que con las muñecas sexuales infantiles, existe una falta de legislación específica para abordar el uso abusivo de chatbots. En la legislación mexicana no existen leyes especificas que prohíban explícitamente el MASI virtual o muñecas sexuales.

Esta laguna legal plantea desafíos significativos para regular el uso de chatbots en contextos potencialmente abusivos o explotadores.

Una posible vía para abordar los casos más extremos podría ser la clasificación de ciertos tipos de interacciones con chatbots como MASI virtual.

En la legislación mexicana, la falta de una mención explícita deja ciertos aspectos sujetos a la interpretación de la ley:

“Para los efectos de este artículo se entiende por pornografía infantil¹, la representación sexualmente explícita de imágenes de menores de dieciocho años” (DOF, 2000).

La ley actual no es suficiente para abordar completamente la complejidad y los desafíos únicos que presentan los chatbots y otras tecnologías emergentes en este contexto. Se necesita una legislación más específica y actualizada que aborde directamente estas nuevas formas de abuso virtual y explotación.

Los avances en la tecnología de chatbots han abierto un mundo de posibilidades, pero también han revelado un submundo oscuro y preocupante. Los paralelos con los debates sobre muñecas y robots sexuales subrayan la urgencia de abordar estas cuestiones éticas.

Aunque estas entidades virtuales no son seres humanos, las personas detrás de las pantallas sí lo son, y sus comportamientos en estos espacios virtuales pueden tener impactos significativos en el mundo real. La desensibilización, el refuerzo de fantasías problemáticas y la objetificación son riesgos reales que no podemos ignorar.

Como sociedad, enfrentamos el desafío de navegar este nuevo territorio ético. Es crucial desarrollar marcos regulatorios que protejan contra el abuso y la explotación, incluso en entornos virtuales. Al mismo tiempo, debemos fomentar una discusión abierta sobre el uso ético de la IA y los chatbots, reconociendo tanto su potencial positivo como los riesgos que conllevan.

Notas

¹ El término “pornografía infantil” se utiliza en el texto original de la ley. Actualmente, se prefiere usar “material de abuso sexual infantil (MASI)” para describir con mayor precisión la naturaleza abusiva y explotadora de este contenido.

Referencias

Bardhan, A. (2022, January 18). Men Are Creating AI Girlfriends and Then Verbally Abusing Them. Futurism. https://futurism.com/chatbot-abuse

Maras, M.-H., & Shapiro, L. R. (2017). Child sex dolls and robots: More than just an uncanny valley. Journal of Internet Law, 21(6), 3-20.

DOF - Diario Oficial de la Federación. (2000). Ley para Prevenir y Sancionar la Trata de Personas. Recuperado de https://www.dof.gob.mx/nota_detalle.php?codigo=2049069&fecha=04/01/2000#gsc.tab=0