Podría la inteligencia artificial propagar prejuicios

La inteligencia artificial (IA), no «entiende» los prejuicios de la misma forma en que los humanos lo hacen. Esta innovadora tecnología «aprende» a través de algoritmos y modelos matemáticos, y su conocimiento se basa en los datos proporcionados durante su entrenamiento.

Sin embargo, si la IA es entrenada con datos que contienen prejuicios puede asimilar y replicar esos prejuicios en sus resultados o decisiones. Esto se debe a que la inteligencia artificial aprende patrones a partir de los datos que se le proporcionan, sin tener una comprensión consciente de qué son los prejuicios.

La IA refleja los sesgos y prejuicios de los datos de entrenamiento y de la sociedad en la que se encuentra. Por lo que es obvio -afirman- que es responsabilidad tanto de los desarrolladores como de usuarios de esta novedosa tecnología asegurarse de que los datos de entrenamiento sean precisos, imparciales y representativos de la diversidad de la población para evitar la propagación de prejuicios o discriminación en sus resultados.

Hay que mencionar también que se están desarrollando técnicas de inteligencia artificial ética y justa, para identificar y mitigar los prejuicios en sus mismos sistemas.

La UNESCO, el 23 de noviembre de 2021, emitió una recomendación en calidad de instrumento normativo elaborado mediante un enfoque mundial, https://www.unesco.org/es/legal-affairs/recommendation-ethics-artificial-intelligence  donde reconoce las repercusiones positivas y negativas profundas y dinámicas de la IA en las sociedades, el medio ambiente, los ecosistemas y las vidas humanas, en particular en la mente humana, debido en parte a las nuevas formas en que su utilización influye en el pensamiento, las interacciones y la adopción de decisiones de los seres humanos y afecta a la educación, las ciencias sociales y humanas, las ciencias exactas y naturales, la cultura y la comunicación y la información.

El desarrollo de técnicas de inteligencia artificial ética y justa se centra en asegurar que sus sistemas sean diseñados y utilizados de manera responsable, minimizando riesgos y maximizando beneficios para todos los individuos y la sociedad en general.

Estas técnicas se basan en principios éticos y valores fundamentales, que incluyen la transparencia, la rendición de cuentas, la equidad, la privacidad, la seguridad y el consentimiento informado. Su objetivo es garantizar que los sistemas de IA no promuevan la discriminación, el sesgo o la injusticia, y que sean diseñados de manera inclusiva para no dejar a nadie atrás.

Para lograr esto, se llevan a cabo diversas acciones durante el desarrollo de sistemas de IA, como:

Análisis de datos: Se realiza una evaluación exhaustiva de los datos utilizados para entrenar los modelos de IA, identificando y mitigando cualquier sesgo existente en ellos. Esto implica examinar cuidadosamente los conjuntos de datos para evitar discriminaciones injustas y sesgos potenciales.

Diseño de algoritmos: Se busca crear algoritmos que sean justos, transparentes y explicables. Esto implica utilizar algoritmos que no discriminan ni perpetúan prejuicios, y que sean capaces de proporcionar explicaciones claras sobre cómo llegan a sus conclusiones.

Supervisión y control humano: Se establecen mecanismos para garantizar la supervisión y el control humano en la toma de decisiones basadas en IA. Esto implica que los sistemas de IA sean utilizados como herramientas para apoyar y mejorar la toma de decisiones humanas, en lugar de reemplazar completamente la intervención humana.

Privacidad y protección de datos: Se adoptan medidas para asegurar que los datos personales sean tratados de manera segura y respetando la privacidad de los individuos. Esto incluye el anonimato de los datos, la protección de la identidad y la adhesión a las regulaciones de protección de datos vigentes.

Evaluación continua: Los sistemas de IA deben ser sometidos a evaluaciones regulares para identificar y corregir cualquier impacto negativo o injusto. Esto implica verificar constantemente si los sistemas cumplen con los estándares éticos y si están generando resultados justos y equitativos.

Como se entenderá, la inteligencia artificial no es el “coco” ni se le debe de tener miedo. Es una nueva y poderosa herramienta que, si es mal empleada al igual que la energía atómica, desde luego que hay consecuencias, por eso la intención de fondo es garantizar que los sistemas de IA sean diseñados y utilizados de manera responsable, evitando discriminaciones injustas y sesgos y maximizando los beneficios para todos los individuos y la sociedad.

Comments

comments