WeTransfer, el popular servicio gratuito para compartir archivos que permite enviar archivos cuando estos son demasiado grandes para adjuntarlos a un correo electrĂłnico, como imágenes de productos de alta resoluciĂłn, vĂdeos o archivos de diseño grandes, modificĂł recientemente los tĂ©rminos para usar los contenidos de los archivos de los usuarios, “para mejorar el rendimiento de modelos de aprendizaje automático que optimicen nuestro proceso de moderaciĂłn de contenido”. Detallaba que se reserva el derecho de “reproducir, distribuir, modificar o mostrar pĂşblicamente” los archivos subidos a su plataforma.Â
En esta era, en la que la confianza digital pende de un hilo, todo lo que rodea a la inteligencia artificial y los datos personales es especialmente sensible. Muchos usuarios interpretaron que con esta modificaciĂłn la empresa se está dando permiso para compartir o incluso vender sus trabajos a empresas de inteligencia artificial. Lo que parecĂa un simple ajuste legal ha sembrado la duda en miles de creativos, ilustradores y profesionales que, hasta ahora, veĂan en esta plataforma una herramienta fiable para compartir su trabajo sin sobresaltos. Ha bastado con una cláusula ambigua para despertar la sospecha de que, tal vez, sus archivos podrĂan estar alimentando alguna IA sin su consentimiento.
La reacciĂłn se desatĂł en las redes sociales. Ilustradores, actores de doblaje y otros perfiles vinculados al mundo creativo expresaron su preocupaciĂłn. Algunos incluso comenzaron a buscar alternativas más transparentes, mientras advertĂan a sus colegas sobre el posible riesgo de utilizar WeTransfer. Para muchos, la idea de que sus obras pudieran acabar siendo usadas para entrenar modelos de IA, sin su conocimiento o control, era lĂłgicamente inaceptable. No se trataba solo de un asunto tĂ©cnico, sino de algo mucho más profundo: la apropiaciĂłn no consentida del esfuerzo creativo individual en un contexto donde el uso Ă©tico de la inteligencia artificial aĂşn está en construcciĂłn.
Para paliar esta creciente ola de desconfianza, WeTransfer saliĂł al paso con una aclaraciĂłn, asegurado que “no usamos aprendizaje automático ni ningĂşn tipo de inteligencia artificial para procesar el contenido compartido en WeTransfer, ni vendemos contenido o datos a terceros”.Â
Este episodio pone de relieve un problema de fondo: la falta de transparencia y comprensiĂłn en torno a los tĂ©rminos de uso de los servicios digitales. Muchos usuarios aceptan estos documentos sin leerlos, confiando en que las empresas actuarán con responsabilidad. Pero cuando esa confianza se ve amenazada, la reacciĂłn suele ser rápida e implacable.Â
La abogada especialista en protecciĂłn de datos Mona Schroedel, dice que “todas las empresas quieren aprovechar el auge de la IA, y lo que más necesita la IA son datos”. Por eso, incluso un simple matiz en una polĂtica puede ser visto como una puerta trasera hacia un uso cuestionable del contenido.
En el fondo, más allá del auge de la IA y de la necesidad que tienen las empresas de recopilar datos para usarla, lo que está en juego es la confianza de los usuarios de recursos tecnolĂłgicos como WeTransfer. Un matiz mal planteado, una frase ambigua, y la percepciĂłn pĂşblica se transforma. WeTransfer no ha entrenado a su IA con los archivos de los usuarios, pero el daño ya está hecho. La pregunta ahora es si bastará con aclararlo… o si, como ocurre tantas veces, la duda ya hizo raĂces.
La moraleja es que debemos revisar los tĂ©rminos de uso de todos los servicios tecnolĂłgicos, para estar conscientes de los riesgos que corremos al aceptarlos, lo cual no suele ocurrir en la mayorĂa de los casos.