Intelligences artificielles : comment les médias se les approprient-ils ?
Les intelligences artificielles sont vectrices de bouleversements dans de nombreuses industries. Dans le secteur automobile, certains véhicules parviennent à se déplacer de manière complètement autonome. En médecine, des robots sont capables de diagnostiquer une pathologie ainsi que sa progression. En droit, des algorithmes peuvent aider à la décision et trancher les cas simples. Bien que relevant de « l’infra-ordinaire », ces intelligences artificielles nous accompagnent tous les jours dans notre quotidien et particulièrement à travers notre consommation des médias.
Les Effeuilleurs, présents au festival Médias en Seine le 8 octobre 2019 à la Maison de la radio à Paris, ont assisté à une conférence dédiée à la façon dont les médias s’emparent de dispositifs innovants tels que lesdites intelligences artificielles. Eric Scherer, directeur de l’innovation et de la prospective chez France TV et responsable dans les médias sur le hub france intelligence artificielle, et Luc Julia, vice-président de l’innovation de Samsung, co-inventeur de Siri et fondateur du leader mondial de la reconnaissance vocale, étaient présents.
Qu’est ce que l’intelligence artificielle?
Contrairement à ce que nous donne à voir le cinéma, l’intelligence artificielle, loin d’être de la « magie », est bel et bien une science basée sur des mathématiques et des statistiques. Oubliez également le fantasme de Robocop, Her, Terminator. S’il s’agit bien d’un robot, l’intelligence artificielle est rarement représentée sous forme humanoïde. Né dans les années 1950, ce terme nous vient d’une traduction de l’anglais « Artificial Intelligence », qui désigne un ensemble de technologies utilisées dans le but de simuler une intelligence.
A l’heure du Big Data, la nécessité de trier, classer et ranger les données est devenue une problématique centrale. En effet, pour que cette abondance de données soit exploitable, des intelligences artificielles sont chargées de traiter ce nombre incalculable d’informations. De la production à la diffusion de contenus, les IA tendent à prendre une place considérable dans les médias. Leurs applications y sont variées et vastes puisqu’elles concernent la quasi totalité de la chaîne de valeur des contenus. Dans la sphère médiatique, les seules intelligences artificielles utilisées sont considérées comme des « narrow AI » (IA étroite), ce qui signifie qu’elles sont « faibles » : elles sont uniquement capables de résoudre des problèmes « restreints », simples, qui n’ont pas de caractère subjectif. Aujourd’hui, celles-ci sont utilisées pour trois raisons principales :
- Prédire,
- Automatiser,
- Optimiser.
Les data center (centre de données) habritent le carburant des IA : les données.
L’appropriation journalistique des IA
Les applications dans la sphère médiatique sont très variées et transforment l’écosystème. Le journalisme, par exemple, se retrouve en pleine transformation : des IA sont déjà capables d’écrire des articles, des dépêches de résultats financiers, de résultats électoraux… Ce qui laissera la possibilité aux journalistes de se concentrer sur des missions à plus forte valeur ajoutée : les investigations, les enquêtes ou encore les interviews. Selon Eric Scherer, les journalistes devront collaborer avec ces machines. Les investigations conduites par Wikileaks s’appuyant sur pléthore de données, seraient impossibles à réaliser de façon traditionnelle, sans ces algorithmes. Ils sont en effet extrêmement efficaces pour organiser et analyser des données en masse et permettent aux humains d’aller plus loin dans le secteur dans lequel ils s’appliquent.
Toujours dans le monde du journalisme, les présentateurs sont également amenés à être assistés voir remplacés par des robots. Xinhua, une agence de presse chinoise, a mis au point un présentateur robotisé capable de présenter des journaux télévisés jour et nuit, du lundi au dimanche. Selon Eric Scherer, ces expérimentations ne sont qu’au stade de prototype mais dessinent l’avenir : nous serons en mesure de choisir qui nous voulons voir comme présentateur de notre JT personnalisé. Ainsi, en plus de bouleverser la technique médiatique et les métiers qui régissent l’écosystème médiatiques, ce sont également les usages des consommateurs qui s’emparent de ce processus. L’IA ne se limite donc pas qu’à une expérimentation technique mais s’étend aux usages.
Un autre aspect du journalisme se verra bouleversé par l’arrivée des IA : la vérification de sources et la lutte contre les fake news. Une photo ou une vidéo peut être analysée par un algorithme se basant sur le Deep Learning. Le Deep Learning, ou apprentissage profond consiste à faire analyser à un algorithme une grande quantité de vidéo/photos, souvent des centaines de millions, dans le but de le faire reconnaître ce qui compose ces vidéos/images (un chat, de l’eau, une voiture…). Ce système permet, grâce à des mécanismes de comparaisons, de savoir de quand date une vidéo/photo et de la recontextualiser. Ces algorithmes sont ainsi capables de vérifier l’authenticité d’une vidéo/photo et, dans le cas des fake news, ils seront en mesure de détecter l’origine et le cheminement de celles-ci. Aussi, le deep learning permet de plus en plus aux journalistes d’effectuer du « speech to text », c’est à dire le processus de retranscription automatique de paroles provenant d’un enregistrement sur un fichier texte. Cet usage permettra aux journalistes de gagner un temps considérable sur la retranscription et ainsi, de se concentrer sur des tâches à valeur ajoutée.
C’est le nombre de vidéo s’appuyant sur le Deepfake en circulation sur internet
C’est la proportion de vidéo s’appuyant sur le Deepfake de nature pornographique
L’IA à domicile et les abus de l’appropriation médiatique
Grâce au deep learning, nous avons également la possibilité de poser des questions aux assistants vocaux (Google Home, Amazon Alexa…). « Alexa, quelles sont les dernières actualités? », « Ok Google, fait-moi écouter le dernier podcast de la Fabrique médiatique. »… Ces assistants étant en pleine explosion, les médias commencent à s’en emparer en proposant des contenus accessibles en une simple question à son robot domestique.
Le deep learning est également à l’origine du deepfake (mot-valise formé à partir de deep learning et de fake). C’est une technique de synthèse d’images qui sert principalement à superposer des images et des vidéos existantes sur d’autres images et/ou vidéos. Il a été possible de mettre à profit cette technologie au cinéma par exemple après le décès d’Oliver Reed pendant le tournage de Gladiator, ce qui a permis de synthétiser son visage pour des scènes tournées après son décès. Malheureusement, le deepfake est principalement connu pour ces abus politiques et pornographiques : il est possible de trouver une vidéo d’un discours de Barack Obama que ce dernier n’a jamais prononcé.
Dans un autre registre, toujours selon Eric Scherer, le traitement des immenses quantités d’informations par les IA permettra aux médias d’adresser du contenu plus personnalisé. Ainsi, toutes nos actions enregistrées sur le web influenceront la publicité qui nous sera adressée sur notre poste radio ou notre téléviseur. Par ce dispositif, les médias seront en mesure d’analyser l’audience et de mieux la monétiser grâce aux algorithmes.
Les assistants vocaux se basent sur l’intelligence artificielle.
Mais qu’en est-il de l’éthique ?
Nous avons évoqué quelques applications des IA dans les médias qui sont aujourd’hui réalisées par les humains. Se pose donc inévitablement la question de savoir si ces robots ne vont pas simplement prendre notre place dans le monde professionnel… Collaboration ou remplacement ? Luc Julia tient un discours se voulant rassurant à l’égard des plus sceptiques. Pour lui, les IA ne seront jamais en mesure d’atteindre le même niveau d’intelligence que les humains (« Intelligence artificielle générale »). Les moins convaincus rappelleront certainement le 11 mai 1997, jour où Deep Blue (super-ordinateur développé par IBM) battait le champion du monde d’échec, Garry Kasparov. Luc Julia remarquerait alors que Deep Blue est un ordinateur, qui a donc naturellement la capacité de mémoriser les 10^120 (un 1 suivi de 120 zéros) parties différentes possible. Pour Luc Julia, il ne faut pas avoir peur des intelligences artificielles : elles ont été développées dans le but d’épauler les humains dans des tâches à faible valeur ajoutée et également dans le but de réaliser des actions impossibles pour les humains. Les intelligences viennent donc en complément des compétences humaines, permettant d’effectuer un travail plus performant et qualitatif.
Et la régulation?
La régulation des IA interroge par ailleurs car à ce jour il n’existe toujours pas de réglementation permettant d’encadrer ces nouvelles technologies. Ceci paraît déroutant au vu de la facilité de création d’une intelligence artificielle : un simple ordinateur et quelques compétences en informatique suffisent à développer une IA… Ces outils peuvent donc aisément se retrouver entre des mains mal intentionnées. Nous avons par exemple cité le deepfake, qui peut être pertinent pour certains usages (cinéma, télé…), mais qui peut s’avérer nuisible. Le résultat de ces hypertrucages est si réaliste qu’il est très difficile de les identifier. Il existe en effet de nombreux cas recensés dans lesquels des visages ont été remplacés à des fins malveillantes. Cocassement, afin de lutter contre ces utilisations abusives issues de robots, des intelligences artificielles sont développées et entraînées à les détecter. L’industrie française des IA nécessite des règles claires, nous pourrions prendre exemple sur l’Angleterre qui a déjà lancé un observatoire sur les intelligences artificielles dans les services publics dans le but de réguler les utilisations possibles. En ce sens, des processus de régulation sont opérés à travers le monde, entre autres grâce à Google, Facebook, IBM, Microsoft et Amazon, qui comptent instaurer de « bonnes pratiques » et mieux informer le public.
La sphère médiatique ne se voit donc pas épargnée par l’essor déjà fortement amorcé de l’IA. Nous l’avons vu, les usages sont diversifiés et toucheront de nombreuses étapes de la chaîne de production des médias. Ces algorithmes sont et seront, selon Eric Scherer et Luc Julia, implémentés afin d’accomplir des tâches impossibles pour les humains, nous assister, nous conseiller, voire même nous remplacer. Seulement, les IA n’étant toujours pas ancrées dans les mœurs, elles restent encore aujourd’hui considérées comme des menaces par le grand public. Elles demanderont donc des efforts aux acteurs médiatiques afin d’accepter et s’adapter à la présence des machines.