Ce que certaines personnes politiquement correctes appellent biais n’est en ralit qu’une commentary intelligente artificielle (IA) de l’environnement rel. Alors, qu’y a-t-il de mal cela – l’IA utilise la probabilit pour prendre des dcisions – en avez-vous dj entendu parler ? Tout le monde devrait. Si un humain ne prend pas en considration ce qu’il vit dans son environnement pour prendre ses dcisions, alors on pourrait dire ; Ce n’est pas clever.
Il y avait un article intressant dans Accelerating Intelligence, le bulletin d’data du Singularity Institute intitul : « The Struggle to Make AI Less Biased than Its Creators », par Peter Rejcek, publi sur le web site Web de Singularity Hub. L’article disait :
« Le sale petit secret concerne l’intelligence artificielle. Non, pas celui des machines qui prennent le contrle du monde. C’est un ancien. Celui-ci est plus insidieux. Les scientifiques des donnes, les experts en IA et d’autres souponnent depuis longtemps que ce serait un problme. L’IA a des prjugs : le sexisme, l’gisme, le racisme, etc., et il est plus probable qu’improbable que les rsultats produits par nos machines soient biaiss d’une ou plusieurs manires. Mais un groupe de rflexion mergent surnomm : « Diversity.AI » croit en nos machines. peuvent faire mieux que leurs crateurs lorsqu’il s’agit de briser les strotypes et autres obstacles l’inclusion. »
Bien sr, cet article est issu d’un biais acadmique socialiste de gauche et d’un POV (level de vue) afin que nous puissions le prendre pour ce qu’il vaut. Oui, l’article a donn de nombreux exemples de rsultats d’IA sur les questions poses, et nous nous souvenons tous quand la recherche Image AI de Google a qualifi les gorilles d’tres humains noirs (afro-amricains), ce qui est peu prs aussi raciste que attainable, mais c’tait une easy erreur en raison de la mesure de la taille des narines, de la taille de la tte, des os de la mchoire, des traits du visage, de la couleur des yeux, de la couleur des cheveux et de la couleur de la peau. Doit-on s’en offusquer ? Non, mais peut-tre que des travaux doivent tre effectus sur cet algorithme d’IA FRT (Facial Recognition Technology).
Outre le vritable apprentissage automatique, doit apprendre, cela signifie faire des erreurs, avoir des succs et en tirer des leons mesure qu’il devient « plus intelligent », n’est-ce pas ? L’auteur de l’article cit ci-dessus a dclar; « L’IA est un prjug ; le sexisme, l’gisme, le racisme, nommez un isme », eh bien, je suppose qu’on nous dit que Donald Trump l’est aussi et que nous l’avons lu prsident, peut-tre devrions-nous lire un systme d’IA pour diriger le pays dans ce cas ? Ah, a t’a fait rflchir non ?
Devrions-nous vraiment reprogrammer l’IA pour qu’elle soit « artificielle non intelligente » la place ? Tout comme nous simulons notre socit pour croire que ce qu’ils observent est fake, pour une model plus politiquement correcte ? Je ne crois pas que ce soit sage ou clever moi-mme. Peut-tre que notre IA est plus intelligente que nous ne le croyons et que nous sommes les stupides qui prtendent et vivons un mensonge partir d’observations relles et relles ? Peut-tre pouvons-nous apprendre de l’IA tre des variations meilleures et plus intelligentes de nous-mmes. Clbrez la diversit – Ne forcez jamais. Pensez cela.