Megha MohanCorrespondant mondial sur le genre et l’identité de la BBC
gravierUn horrible meurtre dans sa famille a inspiré la Sud-Africaine Leonora Tema à créer une plateforme numérique où les gens, principalement des femmes, peuvent parler et suivre les abus.
Le parent de Leonora n’avait que 19 ans et était enceinte de neuf mois lorsqu’elle a été tuée et son corps jeté sur le bord d’une autoroute près du Cap en 2020.
« Je travaille dans le secteur du développement, j’ai donc été témoin de violence », explique Leonora. « Mais ce qui a retenu mon attention, c’est que la mort violente d’un membre de ma famille était considérée comme tout à fait normale dans la société sud-africaine.
“Sa mort n’a été rapportée dans aucun média car le simple nombre de ces cas dans notre pays ne peut pas être considéré comme une nouvelle.”
Le tueur n’a jamais été arrêté, et ce que Leonora considérait comme une acceptation silencieuse de la mort violente d’une femme est devenu le catalyseur de son application, Gender Rights in Technology (Grit), qui présente un chatbot appelé Zuzi.
Il s’agit de l’un des premiers outils d’IA gratuits créés par des créateurs africains pour lutter contre la violence sexiste.
« Il s’agit d’une solution africaine conçue en partenariat avec les communautés africaines », explique Leonora.
L’objectif est de fournir un soutien et d’aider à collecter des preuves qui pourront ensuite être utilisées dans des poursuites judiciaires contre les agresseurs.
L’initiative suscite de plus en plus d’intérêt parmi les militants internationaux des droits des femmes, même si certains mettent en garde contre l’utilisation de chatbots pour remplacer le soutien humain, soulignant que les survivantes ont besoin d’empathie, de compréhension et de connexion émotionnelle qui ne peuvent être fournies que par des professionnels qualifiés.
Leonora et sa petite équipe ont visité les communautés des townships entourant sa maison au Cap, parlant aux habitants de leurs expériences d’abus et de la manière dont la technologie s’intègre dans leur vie.
Ils ont demandé à plus de 800 personnes comment elles utilisaient leur téléphone et les réseaux sociaux pour parler de violence, et ce qui les empêchait de demander de l’aide.
Leonora a constaté que les gens voulaient parler de leurs abus, mais « se méfiaient des méthodes traditionnelles comme la police ».
Elle déclare : « Certaines femmes publient des articles à ce sujet sur Facebook, et identifient même leur agresseur, pour recevoir des documents de diffamation. »
Elle a estimé que les systèmes existants ont laissé tomber les victimes à deux reprises, d’abord lorsqu’ils n’ont pas réussi à prévenir la violence elle-même, et ensuite lorsque les victimes ont tenté de faire entendre leur voix.
Avec le soutien financier et technique de Mozilla, de la Fondation Gates et de la Fondation Patrick McGovern, Leonora et son équipe ont commencé à développer Grit, une application mobile qui peut aider les gens à enregistrer, signaler et obtenir une réponse aux abus au fur et à mesure qu’ils se produisent.
L’application est gratuite, même si son téléchargement nécessite des données mobiles. L’équipe Leonora affirme compter 13 000 utilisateurs et avoir reçu environ 10 000 demandes d’aide en septembre.
À la base, Grit est construit autour de trois fonctionnalités clés.
Sur l’écran d’accueil se trouve un grand bouton d’aide circulaire. Lorsqu’on appuie dessus, il commence automatiquement à enregistrer 20 secondes d’audio, capturant ce qui se passe autour de l’utilisateur. Dans le même temps, il déclenche une alerte vers un centre d’appels spécial à réponse rapide – les sociétés d’intervention professionnelles sont courantes en Afrique du Sud – où un opérateur qualifié contacte l’utilisateur.
Si l’appelant a besoin d’une assistance immédiate, l’équipe d’intervention envoie elle-même quelqu’un sur les lieux ou contacte une organisation locale d’aide aux victimes qui peut lui venir en aide.
L’application a été créée en fonction des besoins des survivants d’abus, explique Leonora : “Nous devons gagner la confiance des gens. Ces communautés sont souvent négligées. “Nous sollicitons beaucoup de gens lorsqu’il s’agit de partager des données”.
gravierLorsqu’on lui a demandé si la fonction d’aide avait été utilisée de manière abusive, elle a admis qu’il y avait eu quelques clics étranges – des personnes testaient pour voir si cela fonctionnait réellement – mais rien qu’elle puisse qualifier d’abus du système.
« Les gens sont prudents, dit-elle. « Ils nous testent autant que nous testons la technologie. »
Le deuxième élément de Grit est le « coffre-fort », qui, selon Leonora, est un espace numérique sécurisé où les utilisateurs peuvent stocker des preuves d’abus, datées et cryptées, pour une utilisation ultérieure dans le cadre de procédures judiciaires.
Les images, captures d’écran et enregistrements audio peuvent être téléchargés et sauvegardés en privé, protégeant ainsi les preuves importantes contre la suppression ou la falsification.
« Parfois, les femmes prennent des photos de leurs blessures ou enregistrent des messages menaçants, mais ces messages peuvent être perdus ou supprimés », explique Leonora. “Le coffre-fort signifie que les preuves ne sont pas seulement stockées sur le téléphone et peuvent être récupérées ou détruites.”
Ce mois-ci, Grit s’étendra à nouveau avec le lancement de sa troisième fonctionnalité : Zuzi, un chatbot alimenté par l’IA conçu pour écouter, conseiller et guider les utilisateurs afin de soutenir la communauté locale.
“Nous avons demandé aux gens : ‘Est-ce que ça devrait être une femme ? Est-ce que ça doit être un homme ? Est-ce que ça doit être un robot ? Est-ce que ça doit ressembler à un avocat, un travailleur social, un journaliste ou une autre figure d’autorité ?'”, explique Leonora.
Les gens leur ont dit qu’ils voulaient que Zosie soit une « tante » – quelqu’un de chaleureux et digne de confiance, en qui ils pouvaient avoir confiance sans crainte d’être jugés.
gravierBien qu’il ait été conçu principalement pour les femmes victimes de violence, Zuzi a également été utilisé pendant la phase de test par des hommes cherchant de l’aide.
“Certaines conversations viennent des agresseurs, des hommes demandant à Zuzi de leur apprendre comment obtenir de l’aide pour les problèmes de colère, qu’ils adressent souvent à leurs partenaires”, explique Leonora. « Il y a aussi des hommes qui ont été victimes de violences et qui ont utilisé Zozi pour parler plus ouvertement de leurs expériences.
« Les gens aiment parler à l’IA parce qu’ils n’ont pas l’impression d’être jugés par elle », ajoute-t-elle. “Il n’est pas humain.”
ONU Femmes rapporte que l’Afrique du Sud connaît des niveaux de violence sexiste parmi les plus élevés au monde, avec un taux de féminicide cinq fois supérieur à la moyenne mondiale. Entre 2015 et 2020, sept femmes en moyenne ont été assassinées chaque jour, selon la police sud-africaine.
Beaucoup, dont Lisa Viten, spécialiste de la violence sexiste en Afrique du Sud, conviennent que la technologie est appelée à jouer un rôle dans la résolution de ce problème.
Mais elle met également en garde contre l’utilisation de l’IA dans les soins axés sur les traumatismes.
« Je les appelle de grands modèles linguistiques, et non d’intelligence artificielle, car ils sont impliqués dans l’analyse et la prédiction linguistiques – rien de plus », dit-elle.
Elle voit comment les systèmes d’IA pourraient aider, mais elle connaît des exemples dans lesquels d’autres chatbots d’IA ont donné des conseils incorrects à des femmes.
“Je m’inquiète lorsqu’ils donnent aux femmes des réponses trop confiantes à leurs problèmes juridiques”, dit-elle. “Les chatbots peuvent fournir des informations utiles, mais sont incapables de gérer des difficultés complexes et multiformes. Plus important encore, ils ne remplacent pas les conseils humains. Les personnes qui ont subi un préjudice ont besoin d’aide pour faire confiance et se sentir en sécurité avec d’autres humains.”
@judith.Litvine/MEAEL’approche de Griet a attiré l’attention internationale.
En octobre, Leonora et son équipe ont présenté leur application lors de la Conférence sur la politique étrangère féministe organisée par le gouvernement français à Paris, où les dirigeants du monde se sont réunis pour discuter de la manière d’utiliser la technologie et la politique pour construire un monde plus égalitaire. Lors de la conférence, 31 pays se sont engagés à faire de la lutte contre la violence sexiste une priorité politique majeure.
Les conversations sont animées sur l’utilisation de l’IA, déclare Lyric Thompson, fondatrice et présidente du Feminist Foreign Policy Collaborative, « mais dès que vous essayez d’introduire le genre dans la conversation, d’évoquer les dangers des préjugés raciaux et sexistes et de la xénophobie, les yeux se arrachent et la conversation se déplace – très probablement dans une ruelle où il n’y a aucune femme ennuyeuse pour aborder le sujet. »
Heather Hurlburt, chercheuse associée à Chatham House, spécialisée dans l’IA et son utilisation dans la technologie, convient que l’IA « a un énorme potentiel pour aider soit à identifier et à lutter contre la discrimination sexuelle et la violence basée sur le genre, soit à consolider la misogynie et les inégalités », mais ajoute que le chemin que nous empruntons « dépend entièrement de nous ».
Leonora explique que le succès de l’IA dans la lutte contre la violence sexiste dépend non seulement de l’ingénierie, mais aussi de la personne qui peut concevoir la technologie en premier lieu.
Un rapport du Forum économique mondial de 2018 révèle que seulement 22 % des professionnels de l’IA dans le monde sont des femmes, une statistique encore souvent citée.
“L’IA telle que nous la connaissons aujourd’hui a été construite à partir de données historiques centrées sur les voix des hommes, et des hommes blancs en particulier”, explique Leonora.
“La réponse n’est pas seulement plus de créatrices. Nous avons également besoin de plus de créatrices de couleur, davantage issues des pays du Sud et davantage issues de milieux socio-économiques moins favorisés.”
Ce n’est qu’à ce moment-là, conclut Leonora Tema, que la technologie pourra commencer à représenter la réalité de ceux qui l’utilisent.
Vous pourriez également être intéressé par :
Getty Images/BBC