# Algorithms Recommendations on Social Media and Political Positions, with Tim Faverjon
**Date de l'événement :** 24/06/2024
* Publié le 24/06/2024

**Écouter l'épisode :**
[Vidéo 1](https://player.ausha.co/?podcastId=VOlJ3hdqLvl4&v=3&playerId=ausha-7MlV) 

## Description
How recommendation algorithms operate on social media to establish relationships with the political positions of users? In order to answer this question, Tim Faverjon designed various models and analysed their predictions, specifically focusing on political attitudes and socio-demographic characteristics. He emphasises the importance of looking inside the algorithms rather than just observing their outcomes to understand their influence on users.  
  
[**Tim Faverjon**](https://medialab.sciencespo.fr/equipe/tim-faverjon/), PhD candidate at the médialab, data science engineer and mathematician, carries out his research at the interface between machine learning and sociology. His current research focuses on recommendation algorithms and politics: what do algorithms “know” about user ideology? How is this information used? What impact on the digital public debate?

## Intervenant(s)
Tim Faverjon

## Intervenant(s) secondaires
Sergei Guriev

### Date de publication de l'épisode
24/06/2024

### Famille(s) de contenu
`#Recherche` 

### Type(s) de ressource
`#Audio` 

### Discipline(s)
`#Science politique` `#Sociologie` 

### Thématique(s)
`#Numérique et technologie` `#Données / big data` 

### Langue(s)
`#Anglais` 

**Type(s) d'accès :** `#Accès libre` 

### Hébergeur(s)
`#Ausha` `#Apple Podcast` `#Podcast Addict` 

## Droits
Les ressources et les images visibles sur Sciences Po Sources sont susceptibles d’être protégées par un droit de propriété intellectuelle (comme par exemple un droit d’auteur ou une marque) qui peuvent appartenir à Sciences Po ou à des tiers. Pour plus de précisions notamment sur les usages autorisés et non autorisés, consulter les [Conditions Particulières d’Utilisation](https://sources.sciencespo.fr/p/cpu).


---
### Média externe associé : https://player.ausha.co/?podcastId=VOlJ3hdqLvl4&v=3&playerId=ausha-7MlV

#### Résumé du média
<p>Ce podcast explore le fonctionnement des algorithmes de recommandation sur les r&eacute;seaux sociaux et leur influence sur les opinions politiques des utilisateurs. Tim Faverjon, doctorant au M&eacute;dialab de Sciences Po, propose, au lieu d'analyser uniquement les recommandations finales des algorithmes, comme c'est souvent le cas, d'&eacute;tudier le leur fonctionnement interne en les codant lui-m&ecirc;me &agrave; partir de donn&eacute;es publiques de Twitter. Son objectif est d'identifier, au sein du mod&egrave;le algorithmique, des repr&eacute;sentations du monde et des corr&eacute;lations avec les attitudes politiques et socio-d&eacute;mographiques des utilisateurs. Il pr&eacute;cise qu'il se concentre sur les partages d'URL et que d'autres plateformes, comme YouTube, utilisent des mesures diff&eacute;rentes, comme le temps de visionnage. Il souligne l'importance de comprendre les donn&eacute;es utilis&eacute;es et l'objectif de la pr&eacute;diction pour chaque algorithme.</p>
<p>Le chercheur travaille sur un &eacute;chantillon de 50 000 utilisateurs de Twitter dont les opinions politiques sont connues. Il construit un syst&egrave;me de recommandation et analyse les &laquo; embeddings &raquo;, des espaces virtuels o&ugrave; utilisateurs et contenus sont positionn&eacute;s. La proximit&eacute; entre un utilisateur et un contenu indique une probabilit&eacute; de recommandation. L'analyse de ces espaces r&eacute;v&egrave;le des corr&eacute;lations entre certaines dimensions et des positions politiques, par exemple, des zones o&ugrave; se concentrent des utilisateurs d'extr&ecirc;me droite. Il insiste sur le fait que l'algorithme, con&ccedil;u pour pr&eacute;dire les comportements de partage, finit par apprendre des informations sur les opinions politiques des utilisateurs, m&ecirc;me sans y &ecirc;tre programm&eacute;. Il nuance en pr&eacute;cisant que ces corr&eacute;lations ne sont pas absolues et que d'autres facteurs, comme la profession, peuvent jouer un r&ocirc;le.</p>
<p>Interrog&eacute; sur les implications politiques de ses recherches, le doctorant plaide pour une plus grande transparence des plateformes concernant le fonctionnement de leurs algorithmes. Il sugg&egrave;re de fournir aux chercheurs des &eacute;chantillons de donn&eacute;es d'utilisateurs et leurs positions dans les &laquo; embeddings &raquo; pour permettre des audits ind&eacute;pendants. Il souligne &eacute;galement l'importance de la formation et de l'information des d&eacute;veloppeurs et data scientists qui con&ccedil;oivent ces algorithmes, afin qu'ils soient conscients des implications de leurs choix techniques. Il met en garde contre le risque que des d&eacute;cisions prises sans une compr&eacute;hension globale des enjeux puissent avoir des cons&eacute;quences impr&eacute;vues.</p>
<p>Enfin, la discussion aborde l'impact des algorithmes de recommandation sur la diffusion de la d&eacute;sinformation. Accompagn&eacute; dans sa discussion par les travaux de Sergei Guriev, le chercheur souligne que le probl&egrave;me n'est pas tant que les fausses informations se propagent plus vite, mais la raison pour laquelle elles le font. Il explique que la polarisation et l'existence de communaut&eacute;s ferm&eacute;es, o&ugrave; les utilisateurs partagent des informations sans les v&eacute;rifier, amplifient la diffusion de fausses nouvelles. Il conclut en appelant &agrave; un d&eacute;bat politique plus constructif, d&eacute;passant la simple d&eacute;nonciation des id&eacute;es adverses, et &agrave; la cr&eacute;ation d'espaces de discussion en ligne moins d&eacute;pendants des algorithmes, donnant l'exemples de forums tels que Reddit.</p>

#### Mots-clés du média
`algorithmes de recommandation` `réseaux sociaux et partage` `polarisation politique et radicalisation` `désinformation` `bulles de filtres et d'écho`

#### Chapitres du média
- **Introduction et question de recherche** (5.897 - 95.013): Sergei Guriev, présente l'invité, Tim Faverjon, doctorant au Médialab, qui étudie les algorithmes de recommandation sur les médias sociaux et leur lien avec les positions politiques des utilisateurs. La question de recherche principale est de savoir comment les algorithmes de recommandation fonctionnent et comment ils peuvent être expliqués par les attitudes politiques des utilisateurs.
    - (5.897): Ce podcast explore la transformation numérique dans nos sociétés.
    - (5.897): L'invité, JL'invité, John, est un doctorant, est un doctorant en deuxième année, travaillant avec Jean-Philippe Cointet au Médialab de Sciences Po.
    - (5.897): Il étudie les algorithmes de recommandation sur les médias sociaux et leur relation avec les positions politiques des utilisateurs.
- **Fonctionnement des algorithmes de recommandation** (95.494 - 466.509): Tim Faverjon explique le fonctionnement des algorithmes de recommandation, notamment le filtrage collaboratif, qui consiste à prédire le contenu qu'un utilisateur consommera en fonction de ce que des utilisateurs similaires ont consommé. Il souligne l'importance de comprendre les données utilisées et l'objectif de la prédiction pour chaque algorithme.
    - (95.494): L'invité étudie les algorithmes de recommandation en les codant lui-même à partir de données publiques et en utilisant des méthodes similaires à celles des grandes plateformes.
    - (95.494): Il analyse l'intérieur de ses modèles pour trouver des représentations du monde et des orientations politiques des utilisateurs, ainsi que leurs caractéristiques sociodémographiques.
    - (95.494): Les algorithmes de recommandation sont le modèle d'affaires central de nombreuses grandes entreprises comme Netflix, Amazon, TikTok, Google et Instagram.
    - (95.494): L'importance des algorithmes de recommandation est due à la quantité massive de données disponibles en ligne.
    - (95.494): Le filtrage collaboratif est une méthode clé des systèmes de recommandation, qui se base sur l'idée que des personnes similaires aimeront des contenus similaires.
    - (95.494): Différentes plateformes utilisent des mesures différentes pour leurs algorithmes, comme le partage d'URL, le temps de visionnage, l'engagement ou les clics.
    - (95.494): Il est crucial de prendre en compte les données utilisées et l'objectif de la prédiction lors de l'étude des algorithmes de recommandation.
- **Méthodologie de recherche et résultats** (467.209 - 691.406): Tim Faverjon décrit sa méthodologie de recherche, qui consiste à construire un algorithme de recommandation à partir de données Twitter et à analyser les liens entre les dimensions de l'algorithme et les attitudes politiques des utilisateurs. Il a constaté que certaines dimensions sont corrélées à des positions politiques spécifiques, comme l'extrême droite et l'extrême gauche.
    - (467.209): Le chercheur étudie les attitudes politiques des utilisateurs de Twitter en analysant leurs partages.
    - (467.209): Il utilise un système de recommandation d'URL pour prédire les partages et identifier des liens avec les opinions politiques.
    - (467.209): L'étude se base sur un sous-échantillon de 50 000 utilisateurs français avec des attitudes politiques connues.
    - (467.209): L'algorithme, en cherchant à prédire les partages, identifie des groupes politiques précis, comme l'extrême droite ou l'extrême gauche.
- **Implications politiques et recommandations** (691.407 - 1084.998): Tim Faverjon discute des implications politiques de ses recherches et recommande aux décideurs politiques de demander plus de transparence sur les algorithmes. Il souligne également l'importance de la sensibilisation des développeurs et des data scientists aux implications de leur travail.
    - (691.407): L'échantillon étudié, composé d'utilisateurs Twitter politiquement actifs, est influent dans le débat politique en ligne, mais ne représente pas la société française.
    - (691.407): La recherche est à un stade de preuve de concept, utile pour des textes réglementaires sur les données tels que le Digital Services Act (EU).
    - (691.407): Les algorithmes de recommandation peuvent prendre en compte des paramètres importants, même sans qu'on leur demande explicitement, comme l'âge et les opinions politiques.
    - (691.407): L'étude a révélé des dimensions politiques dans l'algorithme, notamment pour les personnes anti-élite de gauche et de droite. Mais aussi des dimensions plus lissées, comme le cas de la communauté Business et IT.
    - (691.407): Les décideurs politiques devraient exiger plus de transparence sur les algorithmes et avoir accès à des données pour les auditer.
    - (691.407): Les algorithmes de recommandation sont complexes et composés de plusieurs blocs, ce qui rend difficile le contrôle de leurs effets.
    - (691.407): Le manque de sensibilisation et de directives claires pour les développeurs peut entraîner des conséquences imprévues, comme la propagation du complotisme.
- **Polarisation, désinformation et rôle des médias** (1085.318 - 1755.971): Sergei Guriev et Tim Faverjon discutent de l'impact des algorithmes de recommandation sur la polarisation, la diffusion de fausses nouvelles et le rôle des médias traditionnels. Ils soulignent l'importance de la discussion entre personnes d'opinions différentes et la nécessité de ralentir la propagation de fausses informations tout en accélérant celle des informations véridiques.
    - (1085.318): Le Digital Services Act (DSA) entre en vigueur, mais son efficacité pour accroître la transparence des algorithmes reste à prouver.
    - (1085.318): Les entreprises de médias sociaux maximisent leurs profits et leurs revenus publicitaires, même si elles mettent en place des mécanismes de contrôle et de modération.
    - (1085.318): L'objectif principal des algorithmes est de maximiser les revenus, ce qui peut entraîner une focalisation sur le partage, les likes et d'autres indicateurs d'engagement.
    - (1085.318): La vitesse d'innovation des médias sociaux a des effets secondaires sur les utilisateurs et la démocratie, notamment la création de bulles de filtres et de chambres d'écho.
    - (1085.318): La polarisation est un problème systémique qui modifie les interactions politiques en ligne et incite les représentants politiques à tenir des propos extrêmes.
    - (1085.318): Les algorithmes influencent également l'établissement de l'agenda politique, ce qui peut avoir un impact important sur la société.
    - (1085.318): Les fausses nouvelles se propagent plus rapidement que les vraies nouvelles sur les médias sociaux, en partie à cause des algorithmes de recommandation qui privilégient l'engagement, les nouvelles choquantes, les nouveautés.
    - (1085.318): Les utilisateurs refusent souvent les fausses infromations. Le problème pour Faverjon vient sourtout des raisons de leur propagation : la polarisation et le manque de dialogue entre les différentes communautés.
- **Recommandations pour les élections et conclusion** (1756.472 - 2180.605): Sergei Guriev et Tim Faverjon abordent les élections à venir et les recommandations pour protéger les démocraties. Tim Faverjon encourage les débats politiques constructifs et la transparence des algorithmes. Sergei Guriev souligne l'importance de la recherche sur les algorithmes de recommandation et l'expérience utilisateur.
    - (1756.472): Les algorithmes de recommandation favorisent la diffusion de fausses nouvelles, mais les émotions et les réactions impulsives jouent également un rôle important.
    - (1756.472): Inciter les utilisateurs à réfléchir avant de partager du contenu peut ralentir la propagation de fausses informations.
    - (1756.472): Trop de barrières pour le partage peuvent également ralentir la diffusion d'informations véridiques.
    - (1756.472): Au regard des élections américaines de 2024, il est important d'encourager des débats politiques constructifs et d'éviter de partager des contenus inappropriés.
    - (1756.472): Les médias traditionnels restent importants malgré l'influence des algorithmes. Il est nécessaire de demander plus de transparence et de compréhension du fonctionnement des algorithmes.
    - (1756.472): Contourner les algorithmes et utiliser des plateformes alternatives pour les discussions peut être bénéfique.
    - (1756.472): Désactiver les algorithmes sur les réseaux sociaux permet de consommer du contenu dans l'ordre chronologique inverse.
    - (1756.472): La consommation de médias traditionnels se fait souvent par le biais des réseaux sociaux, ce qui nous soumet à l'influence des algorithmes même lorsque nous ne le souhaitons pas.



---
### Navigation pour IA
- [Index de tous les contenus](https://sources.sciencespo.fr/llms.txt)
- [Plan du site (Sitemap)](https://sources.sciencespo.fr/sitemap.xml)
- [Retour à l'accueil](https://sources.sciencespo.fr/)
