• compartir

Microsoft abandona el desarrollo de Inteligencia Artificial que lee emociones y propone control sobre tecnología

Microsoft quiere controlas su desarrollo de IAs

Microsoft compartió una entrada en su blog oficial donde anunció que detuvo el desarrollo de una inteligencia artificial. Esta se estaba creando con la capacidad de leer las emociones del usuario, pero consideraron que esto podría ser peligroso. Además propusieron una desarrollo responsable.

Después de tomar en cuenta las opiniones de varios expertos, dentro y fuera de Microsoft, tomaron esta decisión. Muchas opiniones apuntan a que no hay suficiente evidencia científica para categorizar de manera correcta las emociones,  a la vez que una tecnología así podría poner en riesgo la privacidad de las personas.

Decidimos analizar profundamente todas las inteligencias artificiales que tienen la capacidad de leer emociones. Ya sea con el uso de reconocimiento facial u otras herramientas’. Esto forma parte de un nuevo plan de desarrollo responsable de IAs propuesto por la compañía. Con esto planean desarrollar estas tecnologías, sin vulnerar al usuario.

Microsoft detuvo el desarrollo de una IA que leía emociones
Fuente: Spiceworks

Otra de las IAs que se volvió el foco de atención para Microsoft es una que tiene la capacidad de ‘imitar’ voces. Ésta puede crear una voz que suene bastante similar a la de la fuente original. No es difícil ver cómo esta podría usarse para ciertas cosas que pondrían en riesgo a las personas. Es por ello que implementarán más controles para su uso.

Te recomendamos: Meta y Microsoft colaboran para crear el Metaverso, y excluyen a Apple de la iniciativa

A partir de ahora, Microsoft se comprometió a crear inteligencias artificiales que resuelvan más problemas del mundo real. De esta manera harán un desarrollo informado  y cambiarán cómo lanzan nuevos sistemas de inteligencias artificiales en el futuro.

Microsoft presenta su nuevo Estándar de IA Responsable

Los sistemas de IA son el producto de diferentes decisiones hechas por quienes las desarrollan e implementan. Desde el propósito del sistema hasta cómo interactúan con las personas, debemos guiar estas decisiones hacia resultados más benéficos y equitativos’.  Aseguró Microsoft sobre su Estándar de IA Responsable.

Este plan fue creado desde 2019 pero es hasta ahora que Microsoft lo comparte de manera pública. La decisión de darlo a conocer es para recibir retroalimentación y contribuir a la creación de mejores normas y prácticas en cuanto a IAs.

Microsoft creó un nuevo estándar para desarrollar IAs
Fuente: Microsoft

La compañía considera que este estándar es muy necesario, ya que las inteligencias artificiales están cada vez más presentes. Día a día, miles de usuarios las utilizan para tareas cada vez más personales y privadas. Mientras tanto, Microsoft considera que las leyes aún están atrasadas en su control, por lo que ellos decidieron tomar un primer paso. ¿Creen que otras compañías lo adoptarán? No olvidemos que también Google ya tuvo problemas con una de sus IAs.

No dejes de seguirnos en Google News. También puedes pasar a nuestro Discord para hablar de tecnología y otros temas.