SuJie ~ 苏杰
banner
su-jie.bsky.social
SuJie ~ 苏杰
@su-jie.bsky.social
On est sur un niveau "Florida man" en terme de titre d'article !
May 27, 2025 at 9:10 PM
Je ne sais pas en effet si c'est le cas, mais vu qu'il y a plus de données les concernant car ils ont plus d'opportunités de s'exprimer, alors justement ça peut être considéré comme tel. Et le fait d'alimenter cette vision est un problème.
Et de rien !
March 30, 2025 at 8:27 AM
Fait pour l'IA mais qui renforce l'image que nous-même on se fait d'un PDG, et qui renforce nos biais personnels, ce qui ne devrait pas être le cas surtout si l'on veut voir plus d'égalité dans notre société.
March 30, 2025 at 8:15 AM
Oui, mais spontanément, si tu redemandes plusieurs fois de générer une image de PDG, le résultat sortant sera un homme blanc car dans ses données d'entraînement, il y a ce biais qui est que dans nos sociétés, ces personnes là sont plus représentées.
March 30, 2025 at 8:03 AM
Le problème c'est que lorsqu'on donne une requête simple à une IA, elle va chercher dans son set de données et ressortir ce qui est le plus présent dans des données. Si tu demandes à une IA de générer l'image d'un PDG, il a de fortes chances que ce PDG soit un homme blanc plutôt qu'une femme noire.
March 30, 2025 at 7:53 AM
Les IA génératives sont nourries avec une énorme quantité de données qui contiennent des biais qui reflètent nos sociétés. Exemple de sexisme : la génération du mot patron ou directeur dans une réponse d'un moteur d'IA sera statistiquement plus probable que patronne ou directice.
March 30, 2025 at 7:34 AM
Il est pas australien, ça marche pas.
January 21, 2025 at 11:01 AM