Cómo adoptar un enfoque consciente de la IA reduce los conjuntos de datos sesgados

Conjuntos de datos sesgados e IA ética

Las soluciones impulsadas por IA necesitan conjuntos de datos para ser efectivas. Y la creación de esos conjuntos de datos está plagada de un problema de sesgo implícito a nivel sistemático. Todas las personas sufren prejuicios (tanto conscientes como inconscientes). Los prejuicios pueden adoptar diversas formas: geográficas, lingüísticas, socioeconómicas, sexistas y racistas. Y esos sesgos sistemáticos se incorporan a los datos, lo que puede dar como resultado productos de inteligencia artificial que perpetúan y magnifican el sesgo. Las organizaciones necesitan un enfoque consciente para mitigar los sesgos que se introducen en los conjuntos de datos.

Ejemplos que ilustran el problema del sesgo

Un ejemplo notable de este sesgo en el conjunto de datos que generó mucha prensa negativa en ese momento fue una solución de lectura de currículum que favorecía a los candidatos masculinos sobre las mujeres. Esto se debe a que los conjuntos de datos de la herramienta de contratación se han desarrollado utilizando currículos de la última década, cuando la mayoría de los solicitantes eran hombres. Los datos estaban sesgados y los resultados reflejaron ese sesgo. 

Otro ejemplo ampliamente reportado: en la conferencia anual de desarrolladores de Google I / O, Google compartió una vista previa de una herramienta de asistencia dermatológica impulsada por IA que ayuda a las personas a comprender qué está sucediendo con los problemas relacionados con la piel, el cabello y las uñas. El asistente de dermatología subraya cómo la IA está evolucionando para ayudar con la atención médica, pero también destacó la posibilidad de que el sesgo se infiltre en la IA a raíz de las críticas de que la herramienta no es adecuada para las personas de color.

Cuando Google anunció la herramienta, la empresa señaló:

Para asegurarnos de que estamos construyendo para todos, nuestro modelo tiene en cuenta factores como la edad, el sexo, la raza y los tipos de piel, desde la piel pálida que no se broncea hasta la piel morena que rara vez se quema.

Google, uso de la inteligencia artificial para ayudar a encontrar respuestas a afecciones cutáneas comunes

Pero un artículo en Vice dijo que Google no usó un conjunto de datos inclusivos:

Para lograr la tarea, los investigadores utilizaron un conjunto de datos de entrenamiento de 64,837 imágenes de 12,399 pacientes ubicados en dos estados. Pero de las miles de afecciones de la piel que se muestran en la imagen, solo el 3.5 por ciento provino de pacientes con los tipos de piel V y VI de Fitzpatrick, los que representan la piel morena y la piel marrón oscura o negra, respectivamente. El 90 por ciento de la base de datos estaba compuesta por personas de piel clara, piel blanca más oscura o piel morena clara, según el estudio. Como resultado del muestreo sesgado, los dermatólogos dicen que la aplicación podría terminar diagnosticando de forma excesiva o insuficiente a las personas que no son blancas.

Vice, la nueva aplicación de dermatología de Google no fue diseñada para personas con piel más oscura

Google respondió diciendo que refinaría la herramienta antes de lanzarla formalmente:

Nuestra herramienta de asistencia dermatológica impulsada por IA es la culminación de más de tres años de investigación. Desde que nuestro trabajo apareció en Nature Medicine, hemos continuado desarrollando y refinando nuestra tecnología con la incorporación de conjuntos de datos adicionales que incluyen datos donados por miles de personas y millones de imágenes más curadas sobre problemas de la piel.

Google, uso de la inteligencia artificial para ayudar a encontrar respuestas a afecciones cutáneas comunes

Por mucho que esperemos que los programas de inteligencia artificial y aprendizaje automático puedan corregir estos sesgos, la realidad sigue siendo: inteligente ya que sus conjuntos de datos están limpios. En una actualización del viejo adagio de programación basura dentro basura fuera, Las soluciones de IA son tan sólidas como la calidad de sus conjuntos de datos desde el principio. Sin una corrección de los programadores, estos conjuntos de datos no tienen la experiencia de fondo para arreglarse por sí mismos, ya que simplemente no tienen otro marco de referencia.

Construir conjuntos de datos de manera responsable es el núcleo de todos inteligencia artificial ética. Y las personas son el núcleo de la solución. 

La IA consciente es una IA ética

El sesgo no ocurre en el vacío. Los conjuntos de datos poco éticos o sesgados provienen de adoptar un enfoque incorrecto durante la etapa de desarrollo. La forma de combatir los errores de sesgo es adoptar un enfoque responsable, centrado en el ser humano, que muchos en la industria llaman Mindful AI. La IA consciente tiene tres componentes críticos:

1. La IA consciente está centrada en los seres humanos

Desde el inicio del proyecto de IA, en las etapas de planificación, las necesidades de las personas deben estar en el centro de cada decisión. Y eso significa todas las personas, no solo un subconjunto. Es por eso que los desarrolladores deben confiar en un equipo diverso de personas con base en todo el mundo para entrenar las aplicaciones de IA para que sean inclusivas y libres de sesgos.

El crowdsourcing de los conjuntos de datos de un equipo global y diverso garantiza que los sesgos se identifiquen y filtren temprano. Aquellos de diferentes etnias, grupos de edad, géneros, niveles de educación, antecedentes socioeconómicos y ubicaciones pueden detectar más fácilmente conjuntos de datos que favorecen un conjunto de valores sobre otro, eliminando así sesgos no intencionales.

Eche un vistazo a las aplicaciones de voz. Al aplicar un enfoque de inteligencia artificial consciente y aprovechar el poder de un grupo de talentos global, los desarrolladores pueden tener en cuenta elementos lingüísticos como diferentes dialectos y acentos en los conjuntos de datos.

Establecer un marco de diseño centrado en las personas desde el principio es fundamental. Contribuye en gran medida a garantizar que los datos generados, seleccionados y etiquetados satisfagan las expectativas de los usuarios finales. Pero también es importante mantener a los humanos informados durante todo el ciclo de vida del desarrollo del producto. 

Los humanos en el circuito también pueden ayudar a las máquinas a crear una mejor experiencia de IA para cada audiencia específica. En Pactera EDGE, nuestros equipos de proyectos de datos de inteligencia artificial, ubicados a nivel mundial, comprenden cómo las diferentes culturas y contextos pueden afectar la recopilación y conservación de datos confiables de entrenamiento de inteligencia artificial. Tienen las herramientas necesarias que necesitan para señalar problemas, monitorearlos y solucionarlos antes de que una solución basada en inteligencia artificial entre en funcionamiento.

La IA humana en el circuito es una “red de seguridad” de proyecto que combina las fortalezas de las personas y sus diversos orígenes con el rápido poder de computación de las máquinas. Esta colaboración humana y de inteligencia artificial debe establecerse desde el comienzo de los programas para que los datos sesgados no formen una base en el proyecto. 

2. La IA consciente es responsable

Ser responsable es garantizar que los sistemas de IA estén libres de prejuicios y que estén basados ​​en la ética. Se trata de ser consciente de cómo, por qué y dónde se crean los datos, cómo los sintetizan los sistemas de IA y cómo se utilizan para tomar una decisión, decisiones que pueden tener implicaciones éticas. Una forma de que una empresa lo haga es trabajar con comunidades subrepresentadas para ser más inclusivas y menos sesgadas. En el campo de las anotaciones de datos, una nueva investigación destaca cómo un modelo multitarea de anotadores múltiples que trata las etiquetas de cada anotador como una subtarea separada puede ayudar a mitigar los problemas potenciales inherentes a los métodos típicos de verdad básica donde los desacuerdos de los anotadores pueden deberse a representaciones insuficientes y puede ignorarse en la agregación de anotaciones a una única verdad básica. 

3. Confiable

La confiabilidad proviene de una empresa que es transparente y explicable sobre cómo se entrena el modelo de IA, cómo funciona y por qué recomiendan los resultados. Una empresa necesita experiencia con la localización de IA para que sus clientes puedan hacer que sus aplicaciones de IA sean más inclusivas y personalizadas, respetando los matices críticos en el idioma local y las experiencias del usuario que pueden hacer o deshacer la credibilidad de una solución de IA de un país a otro. . Por ejemplo, una empresa debe diseñar sus aplicaciones para contextos personalizados y localizados, incluidos idiomas, dialectos y acentos en aplicaciones basadas en voz. De esa manera, una aplicación brinda el mismo nivel de sofisticación en la experiencia de voz en todos los idiomas, desde el inglés hasta los idiomas subrepresentados.

Equidad y diversidad

En última instancia, la inteligencia artificial consciente garantiza que las soluciones se construyan sobre conjuntos de datos justos y diversos donde las consecuencias y el impacto de resultados particulares se monitorean y evalúan antes de que la solución salga al mercado. Al ser conscientes e incluir a los seres humanos en cada parte del desarrollo de la solución, ayudamos a garantizar que los modelos de IA se mantengan limpios, mínimamente sesgados y lo más éticos posible.

¿Qué piensas?

Este sitio usa Akismet para reducir el correo no deseado. Descubra cómo se procesan los datos de sus comentarios.