Organizaciones buscan que Inteligencia Artificial tenga perspectiva de género y que asistentes virtuales no solo sean voces de mujeres ultra femeninas

Muchas mujeres asegura que la IA tiene potencial para reforzar estereotipos

Organizaciones buscan que Inteligencia Artificial tenga perspectiva de género y que asistentes virtuales no solo sean voces de mujeres ultra femeninas

Muchas mujeres asegura que la IA tiene potencial para reforzar estereotipos

La Inteligencia Artificial avanza a pasos agigantados y como he dicho varias veces, este será el año en que comencemos a expresar sentimientos reales a favor o en contra de esta tecnología, como hemos visto en obras de ciencia ficción como las películas. Una de estas preocupaciones han sido las diferentes reflexiones que ha generado ChatGPT, el popular chatbot desarrollado por OpenAI, enfocadas en la perspectiva de género e inteligencia artificial.


Debates que nacen ya que a pesar de que esta y otras plataformas no tengan un género definido, al momento de responder a las preguntas que los usuarios le hacen, demuestran tener sesgos preocupantes. Algo que apuntan en una columna de La Tercera, donde Catalina Infante pone como ejemplo las asistentes virtuales como Siri de Apple, Alexa de Amazon y Cortana de Microsoft, las cuales indica, tienen una personalidad que todos asociamos a lo “femenino”, ya que han sido programadas para ser “sumisas y serviles e incluso para responder de forma educada a los insultos”, dejando como ejemplo cuando en un comienzo Siri le respondía “me sonrojaría si pudiera” cuando la llamaban “puta”.

Para corroborar esto, además cita un informe publicado por la ONU, donde se menciona cómo estos asistentes digitales que han sido diseñados con nombres y voces de mujeres, “perpetúan los estereotipos sexistas sobre la mujer, haciendo un llamado a las empresas de tecnología a poner especial ojo en las repercusiones sociales que esto tiene”.

Puedes leer: Sitio de cursos online Domestika despedirá a casi la mitad de sus trabajadores y los reemplazará por Inteligencia Artificial

En la columna además ponen como ejemplo resultados de diferentes pruebas realizadas con ChatGPT, contando que cuando le pidió que le arme una lista de los regalos ideales para niñas y luego para niños, incluyó en la primera varios regalos que desarrollan el arte y en el segundo, regalos de construcción.

“Suena algo sin importancia, pero para algunos expertos esto es solo la punta del iceberg y estos sesgos que persisten en los conjuntos de datos, algoritmos y dispositivos de capacitación de la AI, tienen potencial para propagar y reforzar estereotipos, así como estigmatizar y marginar aún más a las mujeres”, indica la periodista.

Para terminar, la columna cita a Jocelyn Dunstan, académica del Departamento de Computación de la Universidad Católica e investigadora del Instituto Milenio Fundamentos de los Datos, quien asegura que “las máquinas aprenden de los datos de entradas, y puesto que en la web hay lenguaje de odio contra mujeres y etnias, el chat GPT y los modelos en general los reproducen y amplifican”. Afirmación compartida también por Barbara Poblete, académica del Departamento de Computación, Universidad de Chile, Investigadora del Centro Nacional de Inteligencia Artificial (CENIA), quien dice que “esto ha sido ampliamente documentado en investigaciones realizadas en esta área. En este sentido, la automatización de procesos que pueden impactar la vida de las personas presenta un riesgo importante de perpetuar desigualdades”.



Editorial: Gaming / Facebook / Twitter / Cobertura / Instagram / Discord

Comentarios

  • Facebook

  • Tarreo

 
 
  • Mejores

  • Nuevos

    Advertising