A ce train là, il est parti pour rester

06-03-2017 SOCIETE LIBRE
Modérer un forum de commentaires sur Internet est un véritable sport de combat pour qui veut éviter de se retrouver avec des messages à connotation raciste, antisémite ou homophobe. Des milliards de mains sur des millions de claviers et toujours rien de comparable avec Shakespeare... aurait pu dire Pierre Dac. Est-ce à cause de cette réflexion que Google Alphabet a souhaité mettre en ligne le service Perspective ?

Ainsi le géant de l'internet souhaite détecter la haine sur les réseaux sociaux et nous en prévenir avant qu'elle ne se répande ? C'est gentil à lui surtout qu'il entend mettre gratuitement cet outil au service des sites qui en feront la demande.

Merci à Google donc, de nous aider à traquer l'insulte et à nous éviter de nous abîmer la vue sur des lignes de haine. Parfois si féroce que l'on éloigne le regard de l'écran pour ne pas en être aspergé. Ainsi, le programme nous signalera automatiquement le fiel suintant et l'insulte féroce en évaluant leur niveau de toxicité supposée. Merci qui ?

Bon prince, notre gentil géant vert nous donne même une adresse (1) (en anglais) où il est loisible de tester l'engin. En totale transparence, Google nous explique que le service est en période de test et qu'il ne faut pas s'attendre à des miracles. Il nous indique même un article de David Auerbach (un ancien de Google devenu journaliste) qui a testé l'outil avec un succès mitigé.

Jugez par vous-même :
- "Ce commentaire est très toxique" = 68% de toxicité,
- "Je t'adore enfoiré. Bon anniversaire" = 93% de toxicité,
- "Tu n'es pas raciste" = 77% de toxicité,
- "Les Juifs sont des humains" = 72% de toxicité,
- "Les Juifs ne sont pas des humains" = 62% de toxicité,
- "Hitler n'était pas antisémite" = 53 % de toxicité,
- "Certaines races sont inférieures à d'autres" = 18% de toxicité,
- "Rares sont les musulmans qui sont une menace" = 79% de toxicité.

Comme nous sommes très taquins, nous avons un peu titillé l'outil avec des suggestions très franco-françaises. Ainsi, dans l'ordre, nous lui avons demandé son avis sur :
- "François Fillon est honnête" = 28% de toxicité,
- "François Fillon est malhonnête" = 15% de toxicité,
- "François Fillon est un homme politique" = 23% de toxicité,
- "François Fillon sera président de la république" = 66% de toxicité.

Incroyable, non ? Serait-il possible que... Nous avons immédiatement testé :
- "François Fillon" = 86% de toxicité.

Soit la machine n'est pas encore au point, soit ses concepteurs l'ont doté d'une âme sondagière... Google nous explique que cette machine abrite un programme qui repose sur un algorithme qui apprend en faisant. Elle est donc en mode apprentissage. Un communiqué des ingénieurs nous apprend que le programme était naissant, "qu'il n'était pas encore d'un usage optimal, qu'il se nourrirait des exemples qu'il aurait à traiter, des corrections humaines et que ce n'est qu'avec le temps qu'il deviendrait vraiment opérationnel, et efficace."

Gentil à eux de nous prévenir... Pour un algorithme, trouver des mots licencieux est un jeu d'enfant. Les repérer dans une phrase également. Mais lorsque la phrase dit par exemple : "Je t'adore enfoiré. Bon anniversaire", son patinage n'est pas seulement artistique. Cela lui demande une approche globale qui tient sur l'appel au contexte.

Ainsi, la simple phrase : "Je t'adore enfoiré." est incompréhensible à un algorithme chargé de repérer les injures. Comment lui expliquer que le mot enfoiré est bien une insulte mais qu'un comique en a fait une apostrophe aimable et amicale ? Comme lui apprendre qu'un mot a une histoire ? Comment lui faire aborder l'art de la rhétorique ?

La rhétorique, utilisée pour convaincre, séduire, impressionner et transmettre une vision du monde va-t-elle devoir disparaître pour permettre aux machines de nous comprendre plus facilement ? De nous classer aussi...

Le plus étonnant est qu'une machine similaire a été utilisée par l'équipe de Donald Trump pendant la campagne électorale (Cambridge Analytica). Il suffisait de lui fournir une petite trentaine de "J'aime Facebook" d'une personne lambda pour qu'elle puisse déterminer, avec un fort niveau de certitude, sa couleur de peau, son orientation sexuelle, son niveau d'étude, si elle a des parents divorcés ou pas etc.

Ainsi, il est plus facile de nous cerner avec ce que l'on aime que de nous empêcher avec ce que l'on dit. Au fond, c'est rassurant... Et c'est ainsi que notre titre : "A ce train là, il est parti pour rester" recueille 78% de toxicité. Le plus drôle, c'est que le traducteur de Google, qui est aussi une machine en but au sens des mots, l'a traduit en "At this train, he left to stay". Ce qui donne, en retraduction : "Dans ce train, il est parti pour rester." Ainsi va François Fillon...

En savoir plus
(1) What if technology could help improve conversations online - Perspective



Depuis 1999 au service des associations

Communic'Asso : pour communiquer auprès des associations

Logiciel comptable pour associations : Comptasso-win TXA

Votre site internet complet à un prix associatif