La IA: Un Reflejo de Nosotros Mismos

A menudo, se percibe la tecnología como un campo aislado de las humanidades, un ámbito oscuro al que pocas personas tienen acceso o conocimiento suficiente para hablar de él. Si lo analizamos desde una perspectiva más cercana, ¿no resulta sorprendente que podamos escribir un texto en nuestros móviles y verlo aparecer simultáneamente en otro dispositivo, sin importar si está a nuestro lado o en el otro extremo del mundo? Incluso la capacidad de grabar un video o escribir con los dedos en un trozo de vidrio parece un truco de magia.
Lo cierto es que no lo es. Estas acciones tienen explicaciones simples que cualquier persona que creció con la radio podría entender fácilmente. No pretendo dar una cátedra sobre cómo funciona Internet y los dispositivos, pero basta con señalar que, al igual que una estación de radio necesita un lugar físico para recibir y enviar la señal, lo mismo sucede hoy con todo lo relacionado con Internet. En algún lugar del mundo, una supercomputadora está recibiendo y enviando miles de datos en cuestión de segundos.
Menciono esto para contextualizar lo que es la inteligencia artificial (IA). Hablo de la supercomputadora porque, en esencia, la IA no es otra cosa que eso: una máquina que no solo se alimenta de miles de kilovatios por hora, sino también de todos esos «Aceptar» que presionamos al usar una aplicación o acceder a una página web. Aunque la privacidad de nuestra huella digital (los datos que subimos a Internet) es un tema importante, no es el foco de este artículo.
Imaginemos, por un momento, a miles de personas de diferentes edades, creencias, países y niveles sociales alimentando el conocimiento de las IA. A esto, debemos sumar todo el contenido que hemos generado como humanidad a lo largo de nuestra existencia. No lo menciono porque crea que estamos al borde de una revolución de máquinas al estilo Hollywood, sino para destacar el gran sesgo que estamos introduciendo en la IA.
Para ilustrar este punto: en una empresa entrenaron a una IA para hacer más eficiente la selección de personal. Sorprendentemente, aproximadamente el 75% de las vacantes fueron asignadas a hombres. Al analizar el resultado, se descubrió que la empresa había contratado a más hombres que mujeres en el pasado. La solución fue eliminar el sexo de los currículums en la base de datos con la que se entrenó la IA. Sin embargo, este cambio provocó que casi el 90% de las plazas se asignaran nuevamente a hombres. Aunque se desconocen las causas exactas, se sospecha que algunos datos específicos, como la forma de escribir o los pasatiempos, contribuyeron a este sesgo. Por otro lado, ¿cómo llevar un registro de cuántas personas se contratan por género si se eliminan estos datos de los registros?
Otro caso es el de las cámaras de reconocimiento facial utilizadas en dispositivos de Apple, Samsung y Android, que han demostrado tener mejores resultados con hombres de tez clara que con mujeres o personas de tez oscura. No podemos culpar a la IA de ser racista; después de todo, somos nosotros quienes la estamos educando con nuestra información. Estamos entrenando a las IA con datos de miles de años de historia humana, y durante gran parte de ese tiempo, las personas de color y las mujeres han sido tratadas de manera desigual. Apenas ayer, en términos históricos, las mujeres obtuvieron el derecho al voto. Es con estos sesgos que estamos entrenando a las IA.
Muchos creen que la creación de IA es una cuestión exclusiva de los programadores, pero si un coche autónomo se enfrenta a la decisión de atropellar a un niño o a un adulto mayor, ¿de dónde extrae los criterios para tomar esa decisión? Los humanistas desempeñan un papel crucial a la hora de enseñar a las IA lo que es bueno y lo que es malo.
En el caso hipotético de un accidente, ¿quién sería el responsable? ¿La IA? ¿El desarrollador? ¿El dueño del vehículo? ¿El fabricante? Si la IA opera de forma independiente y se le considera responsable, ¿sería juzgada como una persona? ¿Se le otorgarían derechos? ¿Tendría una nacionalidad? ¿Cómo tendríamos que cambiar las leyes para coexistir con las IA?
A veces, hablar de estos temas parece sacado de una película de ciencia ficción, pero Google ya tiene vehículos autónomos desde la década de 2010, y no es la única empresa que ha automatizado funciones con IA. El hecho de que apenas ahora, en la década de 2020, tengamos acceso público a esta tecnología no significa que no se haya estado trabajando en ella desde antes. Si hoy no está en las calles, es porque cada vez que se intenta implementar, muchas personas (principalmente humanistas) se oponen. No se trata de estar en contra de las máquinas, sino de que la sociedad aún no está lista para una relación estrecha entre humanos y máquinas. Además, el entrenamiento de las IA está plagado de sesgos raciales, de género y sociales.
Muchos piensan que bastaría con programar unas cuantas leyes al estilo de «Yo, robot«, pero si la base de datos con la que se entrena la IA no sigue esas reglas, existe una gran probabilidad de que las desobedezca. Miles de personas usan IAs de chat para resolver dudas, y aunque hay reglas sobre lo que no se debe preguntar, la gente busca formas de evadir esas limitaciones, entrenando a las IA para sortear sus propios límites.
En otras palabras, no solo se trata de la base de datos que refleja sociedades poco éticas, sino que las personas que tienen acceso a las IA demuestran que esa es la forma en la que opera el mundo. Por eso, después de algunos usos, casi cualquier IA, por más clara y concisa que haya sido la instrucción, termina haciendo lo que quiere. Porque, al final, las IA no son más que un reflejo de nuestra sociedad.
Originally published at https://experthum.mirsuarez.com/la-ia-un-reflejo-de-nosotros-mismos/ on August 29, 2024.
Explora más: Enlaces I.A. Suárez V | Enlaces Kajii Narumi | Si te gusta mi contenido, considera donar aquí. ¡Gracias!