El anuncio puso en alerta a muchas personas: OpenAI, la ascendente compañía responsable de ChatGPT y DALL-E, reveló que está considerando permitir a los usuarios crear contenido no apto para menores con inteligencia artificial, incluyendo “imágenes eróticas, gore extremo y blasfemias”… ¿Todo está permitido cuando se trata de explorar el poder de las nuevas tecnologías o hay límites para la innovación? Nos encontramos frente a la discusión por los valores de aquello que construimos.
Si bien en la actualidad las normas de OpenAI prohíben crear contenido sexual explícito, en un documento interno que se conoció hace algunos meses se reveló que la compañía está trabajando en levantar esas barreras. Joanne Jang, jefa de producto en la empresa, le dijo a la radio pública de los Estados Unidos que esperan iniciar una discusión pública sobre si los textos eróticos y las imágenes de desnudos siempre deberían estar prohibidos.
“Queremos asegurarnos de que las personas tengan el máximo control en la medida en que no violen la ley ni los derechos de otras personas. Esto excluye, claro, habilitar deepfakes”, aseguró Jang.
Si bien frente a la pregunta de si con estas reglas se podrían crear imágenes porno, contestó que “eso depende de tu definición de pornografía”. Esta revelación llega cuando ya existen aplicaciones que “desnudan” a las personas y que han generado revuelo en todo el mundo, con uso en menores en distintas localidades de las provincias de Buenos Aires, Chaco y San Juan.
El debate nos lleva a una discusión que tiene ya varias décadas, pero que aún genera controversia: ¿tiene valores la tecnología? El saber popular suele repetir que los artefactos no son “ni buenos ni malos” sino que todo depende de cómo lo utilicemos. Sin embargo, la reflexión filosófica y desde las humanidades zanjó el debate hace tiempo: cuando hablamos de tecnología, no existe la neutralidad valorativa.
Tim Berners-Lee, creador de la World Wide Web en 1989, es uno de los mayores promotores de la necesidad de incorporar reglas éticas en el diseño mismo de la tecnología que estamos construyendo: “A medida que diseñamos el sistema, estamos diseñando la sociedad. Todo tiene que ser presentado como algo que pensamos que será una buena idea como componente de lo que somos”.
Así, para evaluar si un dispositivo o plataforma es buena o mala, no es suficiente mirar a la tecnología misma, sino que también debemos considerar a las personas que las están creando y transmitiéndole sus valores. Como afirma Erin Young, investigadora del Instituto Alan Turing: “La tecnología no es neutral. Está moldeada por las personas que construyen las tecnologías, moldeada por sus elecciones y sus valores. Los sistemas de IA no son objetivos. Cuando lo entrenamos con sesgos, sus resultados son sesgados”.
Si reconocemos que la tecnología está cargada de valores, OpenAI debe asumir que los suyos están en juego cuando diseña sus productos. Que se pueda hacer una plataforma para crear pornografía sintética no significa que se deba tener que hacerlo ni que sea una buena idea. Entender la diferencia es un trabajo de compañías, estados y usuarios.