Artículo original de: The Conversation
Por:
En los últimos días se acumulan varias noticias relacionadas con la inteligencia artificial (IA) que han causado más de un sobresalto. Ya no se trata simplemente de la aparición de contenidos que provocan desinformación en las redes sociales, sino de auténticos ataques a la dignidad de las personas. Como ha ocurrido con el caso de los menores que han difundido en redes sociales falsos desnudos, generados por IA, de varias niñas y jóvenes de un pueblo de España (Almendralejo). El debate sobre los límites que se deben poner a la IA vuelve a estar sobre la mesa.
Hace pocos años participé en un congreso sobre IA y comunicación. Me llamó la atención que los periodistas presentes pidieran un distintivo explícito para cada noticia producida por una IA. Adelantándose a los acontecimientos, sabían que los contenidos generados por IA llegarían a ser indistinguibles de los realizados por humanos.
La petición de los periodistas no era simplemente una defensa de sus puestos de trabajo. La IA, que puede liberar de tareas pesadas y repetitivas en el trabajo, se ha convertido también en una amenaza por la posibilidad de generar contenidos fake: rostros que no han existido, discursos nunca pronunciados, cuerpos jamás exhibidos.
La aparición de nuevas tecnologías conlleva riegos nuevos por el posible mal empleo de las nuevas potencialidades. En el caso de la IA, con su omnipresencia en nuestro tejido social, los riesgos se hacen aún mayores, especialmente por la posibilidad de establecer inéditas sinergias destructivas cuando la IA se une a una desafortunada finalidad humana.
No solo estamos hablando del “problema de la alineación”: debido a la complejidad de los algoritmos y estrategias de optimización de la IA, sus productos pueden contener sesgos y fines indeseados por sus creadores.
Este problema ha llevado a la formación de grupos interdisciplinares que debaten cómo tener una IA más segura. El problema al que me refiero es conceptualmente más simple, pero potencialmente más peligroso: ¿qué hacer cuándo se tiene una herramienta muy poderosa al alcance de cualquier ser humano, capaz de dañarse a sí mismo o de dañar a otros?
Unos marcos legales muy necesarios
Como sociedad, buscamos modos de protección ante el mal uso de las tecnologías. Protegemos nuestros datos personales, luchamos con copyrights contra la piratería y ponemos filtros en internet para evitar el acceso a contenidos dañinos.
El desarrollo imparable de la IA demanda nuevos marcos legales en los que se lleva tiempo trabajando desde muchas instituciones. Hay una sensibilidad creciente a este respecto en prácticamente todos los sectores de la sociedad y se están dando pasos en buenas direcciones.
No obstante, establecer marcos legales actualizados ante los potenciales riesgos de la IA, aun siendo algo necesario e irrenunciable, no debe hacernos perder de vista lo que está en juego. Por muy bien intencionada que sea, la legalidad no puede impedir por sí sola y a cualquier coste el mal empleo de la IA.
El derecho llega siempre después que la vida, y aquí nos enfrentamos al mal uso de la IA en la vida humana. Una vida, transida de IA, en la que se dan continuamente nuevas posibilidades.
El efecto potenciador de la IA en la actividad humana, cuyos efectos positivos muy pocos ponen en duda, hace que la dimensión ética de nuestro actuar cobre aún mayor protagonismo. Cuando hablamos de ética en la IA no estamos simplemente considerando cómo implementar algunas normas éticas en las máquinas. En su sentido más profundo, la dimensión ética de la IA hace referencia a cómo nos reconocemos y tratamos como personas a la hora de emplear esta poderosa herramienta.
La ética tiene siempre que ver con la vida y la actuación personal, por eso está también presente en este campo. Paradójicamente, la IA nos desafía a comprendernos mejor como personas. Sus impresionantes potencialidades nos hacen caer en la cuenta de qué significa que cada ser humano pueda emplearla para el bien o para el mal. Como explica el filósofo Charles Taylor, es imposible ser “yos” sin una referencia al bien y al mal. La IA no tiene esa referencia, pero nosotros sí.
La necesidad de una educación ética
De manera profética, Benedicto XVI advertía a comienzos de siglo del desequilibrio entre el crecimiento tecnológico y la madurez ética de nuestra sociedad. El reto que tenemos por delante, ante el que la IA nos sitúa sin escapatoria posible, es la educación ética. Y no me refiero solo a enseñar ética a nuestros hijos, sino a la educación ética de cada uno de nosotros, aquello que no se puede en modo alguno delegar.
La IA abre hasta límites insospechados el abanico de posibilidades para actuar. En cada una de ellas está implícita la pregunta sobre qué significa ser persona y hacer lo bueno aquí y ahora. Resulta muy necesaria la conversación entre científicos, filósofos y juristas para un empleo seguro de la IA, pero aún más la educación personal, aquella que en el fondo no se puede imponer, sino solo inspirar. Educar es una tarea perenne: significa sacar lo mejor de cada persona. ¿Podemos confiar en la IA para ello?