closeVideo

Fox News Flash top titres pour le mois de juillet 2

Fox News Flash top titres sont ici. Découvrez ce qu’en cliquant sur Foxnews.com.

L’Institut de Technologie du Massachusetts en permanence a pris ses 80 Millions de Minuscules Images dataset—une image populaire de la base de données utilisée pour former la machine de systèmes d’apprentissage pour identifier les personnes et les objets dans l’environnement, parce qu’il a utilisé une gamme de raciste, misogyne, et d’autres termes insultants à l’étiquette de photos.

Dans une lettre publiée lundi du MIT CSAIL site, les trois créateurs de l’énorme jeu de données, Antonio Torralba, Rob Fergus, et le projet de Loi Freeman, s’est excusé et a dit qu’ils avaient décidé de prendre le jeu de données en mode hors connexion.

“Il a été porté à notre attention que les petites Images du jeu de données contient certains termes désobligeants comme des catégories et de l’offensive des images. C’était une conséquence de la collecte de données automatisée procédure qui comptaient sur les noms de WordNet. Nous sommes grandement préoccupés par la présente et présente des excuses à ceux qui ont été touchés”, ont-ils écrit dans la lettre.

Selon la lettre, le jeu de données a été créée en 2006 et contient 53,464 différents noms, directement copiés à partir de Wordnet. Ces termes ont été utilisés pour télécharger des images correspondant à des noms de moteurs de recherche sur Internet au moment de recueillir les 80 millions d’images (les petits 32×32 résolution).

HIGH-TECH GANT PEUT TRADUIRE la LANGUE des signes AVEC une PRÉCISION de 99%

MIT a tiré un gigantesque intelligence artificielle dataset à partir de l’utilisation de cette semaine. (Gettty Images)

la VILLE de NEW YORK PEUT TESTER des eaux USÉES POUR le CORONAVIRUS: RAPPORT

“les Préjugés, offensive et préjudiciable images, et péjoratif terminologie aliène une partie importante de notre communauté, précisément ceux que nous faisons des efforts pour comprendre. Il contribue également à des biais dans l’IA des systèmes formés sur ces données,” ont-ils écrit.

“de plus, la présence d’un tel préjudice images mal d’efforts pour promouvoir une culture de l’inclusion dans la vision par ordinateur de la communauté. C’est extrêmement regrettable et va à l’encontre des valeurs que nous nous efforçons de respecter.”

Biaisée de données peuvent avoir un impact majeur sur les technologies d’apprentissage automatique et de l’IA des programmes, ils sont utilisés pour la formation. Une série de critiques à l’intérieur et à l’extérieur de la Silicon Valley ont appelé l’attention sur les préjugés à l’encontre des noirs spécifiquement et des personnes de couleur en général dans les différents système d’intelligence artificielle.

Le jeu de données ne sera pas re-téléchargé.