Connexion avec identifiant, mot de passe et durée de la session
Avant le scrutin présidentiel américain de novembre 2020, Facebook avait modifié ses algorithmes pour réduire la diffusion de fausses informations. Mais, selon la lanceuse d’alerte, « dès que l’élection a été terminée » le groupe les a reconfigurés comme avant, « pour donner la priorité à la croissance plutôt qu’à la sécurité », a-t-elle soutenu dans son entretien à l’émission 60 Minutes, sur CBS.« Il y avait des conflits d’intérêts entre ce qui était bon pour le public, et ce qui était bon pour Facebook », a insisté Mme Haugen, et le groupe, « une occasion après l’autre, choisissait de privilégier ses intérêts, c’est-à-dire faire plus d’argent ».
https://www.lemonde.fr/pixels/article/2021/10/04/facebook-instagram-et-whatsapp-touches-par-une-panne-majeure_6097097_4408996.htmlqui cite, plus intéressant :https://www.lemonde.fr/pixels/article/2021/10/03/facebook-se-defend-d-avoir-contribue-a-l-assaut-du-capitole-le-6-janvier_6096981_4408996.html
Il y a pire des fois : https://www.lemonde.fr/pixels/article/2021/10/05/devant-le-congres-americain-une-lanceuse-d-alerte-compare-facebook-a-l-industrie-du-tabac-et-appelle-a-sa-regulation_6097257_4408996.html
[...] when data scientists and software engineers blend content personalization and algorithmic amplification — as they do to produce Facebook’s News Feed, TikTok’s For You tab and YouTube’s recommendation engine — they create uncontrollable, attention-sucking beasts. Though these algorithms, such as Facebook’s “engagement-based ranking,” are marketed as increasing “relevant” content, they perpetuate biases and affect society in ways that are barely understood by their creators, much less users or regulators.[...]The solution is straightforward: Companies that deploy personalized algorithmic amplification should be liable for the content these algorithms promote. This can be done through a narrow change to Section 230, the 1996 law that lets social media companies host user-generated content without fear of lawsuits for libelous speech and illegal content posted by those users.[...]There is no A.I. system that could identify every possible instance of illegal content. Faced with potential liability for every amplified post, these companies would most likely be forced to scrap algorithmic feeds altogether.Social media companies can be successful and profitable under such a regime. Twitter adopted an algorithmic feed only in 2015. Facebook grew significantly in its first two years, when it hosted user profiles without a personalized News Feed. Both platforms already offer nonalgorithmic, chronological versions of their content feeds.