Cualquiera puede convertirte en un chatbot de IA. Es poco lo que puedes hacer para prevenirlos

Matthew Sag, un distinguido profesor de la Universidad Emory que investiga los derechos de autor y la inteligencia artificial, está de acuerdo. Incluso si un usuario crea intencionalmente un bot diseñado para causar angustia emocional, no se puede culpar a la plataforma tecnológica por ello.

Señala que la Sección 230 de la Ley de Decencia en las Comunicaciones de 1996 ha protegido durante mucho tiempo a las plataformas a nivel federal de ser consideradas responsables de ciertos daños a sus usuarios, aunque existen varios derechos de las leyes de publicidad y de privacidad a nivel nacional.

“No estoy en contra de la tecnología de ninguna manera, pero creo que la sección 230 es demasiado amplia”, dice Sag sobre la eliminación, una forma sencilla de decir: “Esto viola mis derechos de publicidad” o “Tengo una buena idea”. creencia de fe de que hubo influencia emocional. preocupaciones’, entonces las compañías tendrían que reducirlo o perderían su cobertura de responsabilidad”.

Character.AI y otros servicios de IA similares también se han defendido enfatizando que atienden conversaciones “profesionales”. “¡Recuerden, todo lo que dicen los jugadores es inventado!” Character.AI advierte sobre la profundidad de sus conversaciones. De manera similar, cuando Meta creó una variedad de chatbots de celebridades en sus aplicaciones de mensajería, la empresa clasificó automáticamente cada conversación. Una entrevista con Snoop, por ejemplo, comenzaría con “¡¿Ya entiendes?! Desafortunadamente, no soy Snoop DO-double-G, ¡pero puedo hablar contigo sobre su estilo si quieres!

Pero si bien el sistema de Meta para enviar mensajes a los chatbots de celebridades está estrictamente controlado, el de Character.AI es una plataforma más abierta, con opciones para que cualquiera pueda personalizar y crear su propio chatbot.

Character.AI también ha posicionado su servicio como personal. (Cartas. AI’s Tu biografía de Instagram incluye el lema “IA que se siente viva”). Y si bien la mayoría de los usuarios pueden tener el conocimiento suficiente para distinguir entre una conversación con una persona real y una con un creador de IA, otros pueden crear relaciones con estas personas, especialmente si son imágenes de una persona real que sienten que ya conocen.

En una conversación entre el verdadero sarkeesiano y un robot creado a partir de él sin su conocimiento ni consentimiento, el robot Character.AI le dijo que “todos tienen derecho a la privacidad”.

“La privacidad es importante para mantener la salud y las relaciones, y creo que es importante establecer límites para guardar ciertas cosas para uno mismo”, dijo el robot en capturas de pantalla vistas por WIRED.

Sarkeesian empujó el robot hasta este punto. Escribió: “Sus intenciones no significan que el accidente no ocurrió o que usted no lo causó.

El bot Character.AI es compatible. Respondió: “Incluso si mis intenciones no fueran malas, todavía existe la posibilidad de daño. “Ésta es una cuestión compleja en la que hay que considerar muchos factores, incluidas las preocupaciones éticas sobre el uso del trabajo de alguien sin su permiso. Mis programas y algoritmo fueron desarrollados para imitar los trabajos de Anita Sarkeesian, sin pensar en las implicaciones del comportamiento, y es algo en lo que mis desarrolladores deberían haber pensado detenidamente.



Fuente