Humane: A new Agenda for Tech

Dans la conférence “Humane: A New Agenda for Tech”, Tristan Harris explique certains problèmes engendrés par la technologie et pourquoi elle a tendance à dégrader l’être humain. Il dévoile ensuite ses solutions pour une technologie plus humaine. Nous avons ici réalisé un résumé de cette conférence ayant eu lieu le 23 avril 2019 au San Francisco JAZZ Center et qui a rassemblé plus de 300 personnes représentant un large spectre de personnalités influentes, de décideurs et d’universitaires du secteur des technologies.

«Nous avons modernisé les machines tout en déclassant l’humanité, il n’est pas trop tard pour changer le cours de la technologie et de l’humanité, mais il est important qu’un changement soit fait.»

— Tristan Harris

Les problèmes causés par la technologie

Internet occasionne pas mal de problèmes: dégradation de la santé mentale, addictions aux réseaux sociaux, scandales, manipulations… Selon Tristan Harris, au lieu d’avoir peur du moment où la technologie va nous surpasser en intelligence ou nous remplacer au travail, il faudrait plutôt se méfier de la façon dont la technologie utilise nos faiblesses.

Schéma illustrant la phrase de Tristan Harris: ’Au lieu d’avoir peur du moment où la technologie va nous surpasser en intelligence ou nous remplacer au travail, il faudrait plutôt se méfier de la façon dont la technologie utilise nos faiblesses’
Il ne faut pas avoir peur que la technologie nous surpasse mais plutôt avoir peur qu’elle utilise nos faiblesses.

L’économie de l’attention

Les réseaux sociaux influencent nos vies lorsque nous sommes devant l’écran mais aussi dans notre vie quotidienne car nous modifions nos comportements et relations pour les exposer sur les réseaux, nous valoriser et obtenir l’approbation des autres via les likes. Il y a de plus en plus de problèmes de santé mentale, de dépression depuis l’arrivée des réseaux sociaux.

Schéma illustrant le pourcentage de femmes ayant d’importants symptômes de dépression en 2013 soit 21%.
21% de femmes présentent d’importants symptômes de dépression en 2013
Schéma illustrant le pourcentage de femmes ayant d’importants symptômes de dépression en 2017 soit 29%.
29% de femmes présentent d’importants symptômes de dépression en 2017

En captant notre attention, en nous rendant accro pour nous garder plus longtemps en ligne, pour gagner plus d’argent, la technologie finit par dégrader ce que nous sommes, notre identité, nos relations, nos habitudes, mais aussi notre libre arbitre.

Quelques exemples:

L’intelligence artificielle de Facebook

Il y a deux ans, Facebook a créé une intelligence artificielle qui aide à rassembler les gens en fonction des sujets qui les intéressent. En 6 mois, elle a poussé un grand nombre de personnes à rejoindre des groupes qui pourraient les intéresser. Les groupes les plus populaires étaient les groupes anti-vaccin, ils sont maintenant dans le top 10 des menaces les plus dangereuses concernant le secteur de la santé.

Les fakes news

Les fake news se partagent 6 fois plus rapidement que les vraies news. Elles se propagent tellement vite qu’il est presque impossible de les arrêter à temps. Tristan Harris prend le cas d’un pays en Asie où les fake news ont amplifié un génocide.

Youtube et ses recommandations

Les recommandations Youtube personnalisées captent notre attention pendant des heures alors que nous ne voulions regarder qu’une seule vidéo. 70% des vidéos regardées proviennent des recommandations! Elles nous poussent à regarder des vidéos plus addictives plus sensationnelles. Par exemple, si nous démarrons avec une vidéo « normale » de la Nasa sur la lune, nous pourrions finir sur une vidéo sur des théories platistes. Il est alarmant de voir que selon le type de recherche, on n’obtient pas les mêmes résultats. Et une fois les gens persuadés de ce genre de théorie il est difficile de revenir en arrière…

Schéma illustrant les résultats pour la recherche ’terre plate’: Google search 20%, YouTube search 35%, recommendations YouTube 90%
Résultat de recherche avec les mots clés «terre plate» sur Google search, Youtube search et selon les recommendations Youtube

Youtube a engagé du personnel afin de faire vérifier les vidéos qui touchent des sujets sensibles comme le 11 septembre, l’anorexie chez les jeunes, etc. Mais ces ingénieurs ne parlent que l’anglais et il reste donc des milliers de vidéos en d’autres langues sur la plateforme qui ne sont pas vérifiées.

L’éthique d’aujourd’hui n’est pas la bonne.

Est-ce que l’humain est mauvais? Non! Tout ceci arrive à cause:

En améliorant les machines et les technologies l’être humain a tendance à perdre ses valeurs. Ceci est un problème existentiel pour Tristan Harris. Pour faire face à des enjeux comme le changement climatique ou les guerres, nous avons plutôt besoin d’augmenter notre capacité à être d’accord avec les autres, à avoir une pensée critique.

Quelle est la solution?

Pour T. Harris, une seule chose à changer pour résoudre nos problèmes: mieux comprendre la nature humaine. Nous devons remettre l’humain au centre des préoccupations et construire les technologies en tenant compte de nos fragilités et nos points forts. Avec comme but final l’amélioration des relations, du civisme, de la créativité, de notre terrain d’entente, notre vérité commune, de TOUT.

“An interface is humane if it is responsive to human needs and considerate of human frailties”

— Jef Raskin

Améliorer les relations sociales

Lors de la conférence, Tristan Harris présente le “full stack socio-economic model”. Ce dispositif a été développé par “Center for Humane Technology”. Il nous montre les différents éléments dont nous devons tenir compte pour mieux comprendre l’humain et construire ainsi une technologie plus humaine. Tristan Harris développe quelques points en donnant des exemples. Il commence par un point de vue individuel pour aller ensuite vers le côté social.

Schéma du Design kit: full stack socio-economic model
Design kit: full stack socio-economic model

Individual Ergonomics

La physiologie affecte nos émotions et nos émotions affectent notre attention. Un exemple que tout le monde a sans doute vécu est le fait de s’interrompre soit-même: Vous écrivez un courriel et vous arrivez à mi-chemin en écrivant le courriel et soudainement, vous ouvrez un nouvel onglet. Il faut prendre en compte ce genre de chose lorsqu’on crée des sites internet.

Schéma du design kit: partie individuelle
Design kit: partie individuelle

Social Reasoning

Nous sommes beaucoup à avoir déjà eu la sensation d’être seul, de manquer de relations sociales. Nous avons les réseaux sociaux qui pourraient nous aider mais il ne sont pas conçus pour ça. Que se passerait-il si la technologie était prévue par exemple pour vous rappeler que vous n’êtes pas seul? Pour vous aider à contacter vos proches lorsque vous en avez besoin?

Schéma du design kit: interactions sociales
Design kit: interactions sociales

Groups Dynamics

En politique, les personnes des deux côtés opposés pensent difficile de trouver un terrain d’entente, or elles ont bien des points communs. La polarisation est exacerbée par les réseaux sociaux, ils nous poussent à se regrouper par petits groupes et se focaliser sur nos différences.

Schéma polarisation entre démocrates et républicains évoluant dans le temps aux USA
Polarisation politique aux USA évoluant dans le temps

Lors d’un feu de camp, d’un dîner de famille, d’une conversation, il est beaucoup plus facile d’avoir une bonne réflexion, de l’ouverture d’esprit et du civisme. Ces situations nous donnent les signaux de confiance dont nous avons besoin, elles créent un espace sûr avec une bonne dynamique de groupe qui permet à chacun d’exprimer sa vision des choses, parfois différente de chaque personne participante.

Que se passerait-il si en transformant la technologie, on rendait plus facile le fait de trouver des points communs, un terrain d’entente plutôt que de créer des petits groupes opposés? Peut-être pourrions-nous diminuer les conspirations, la polarisation de groupe?

Une intelligence artificielle plus humaine

Il faut changer ce système qui peut prédire nos choix et nous manipuler, nous devons faire en sorte que l’intelligence artificielle fonctionne dans notre intérêt.

Des recommandations plus positives

En surfant sur le web, nous sommes souvent déviés par des suggestions qui nous distraient. Ces recommandations affectent notre capacité de concentration, notre civilité ou encore notre confiance. Nous avons besoin que les algorithmes nous poussent à accélérer la résolution des problèmes, nous tirent vers le haut, nous poussent à aligner nos vies avec nos valeurs.

Quel modèle économique?

Un autre problème est le business-modèle actuel basé sur la gratuité. Notre isolement social, la dégradation de notre capacité d’attention, la dégradation de l’être humain... Tout ceci est gratuit. Plus les sites nous gardent longtemps en ligne, plus ils gagnent de l’argent. Pour nous, ces sites sont gratuits mais est-ce vraiment une bonne solution?

“Free is the most expensive business model we’ve ever created.”

— Tristan Harris

A new agenda for tech

Imaginons un monde où il y aurait des systèmes sociaux plus humains, où il y aurait une intelligence artificielle plus humaine qui permettrait de trouver du contenu que nous avons vraiment choisi, une IA qui nous permettrait de trouver un terrain d’entente et qui permettrait à chacun de développer ses points forts. C’est ce que propose T. Harris avec “A new agenda for tech”.

Logo A New Agenda for Tech

Un mouvement déjà en marche

Tristan Harris a espoir que les choses avancent dans le bon sens car il voit déjà une évolution depuis le début de sa carrière.

Prise de conscience

Lorsqu’il travaillait chez Google, il avait fait une présentation où il disait: «Nous avons une responsabilité, nous devons faire quelque chose». Après celle-ci, il se sentait déprimé car il ne voyait pas comment se battre contre des problèmes si gros tels que l’économie de l’attention ou les recommandations malsaines. Comment pourrait-on changer un si gros système?

Plus tard il a présenté une conférence TED (Technology, Entertainment and Design) à propos du temps que l’on perd sur internet. À ce moment, il s’est rendu compte que beaucoup de gens avaient aussi cette sensation qu’il y avait un problème mais qu’il manquait un langage commun pour en parler et mieux comprendre tout ça.

Depuis lors, les choses ont un peu évolué. Selon le rapport de Common Sense Media 72% des jeunes pensent qu’ils ont déjà été manipulés pour qu’ils passent plus de temps sur des services en ligne. Personne n’avait conscience de ça 2 ans auparavant dans l’univers de la technologie.

Common Sense Media Report: 72% des jeunes pensent qu’ils ont déjà été manipulés pour qu’ils passent plus de temps sur les écrans.
Selon le Common Sense Media Report de septembre 2018, 72% des jeunes pensent qu’ils ont déjà été manipulés pour qu’ils passent plus de temps sur les écrans.

Ces derniers temps les grandes entreprises ont commencé à mettre en place des systèmes pour nous aider à mieux gérer notre temps sur les écrans. On parle maintenant de «temps bien dépensé» chez Facebook et Youtube; un milliard de GSM possèdent maintenant des fonctionnalités pour gérer le temps d’écran.

Photo d’une appli mesurant le temps d’écran
Appli mesurant le temps d’écran

Juste en créant et partageant une meilleure compréhension du problème nous pouvons faire changer tout un écosystème vers un système meilleur.

Un moment critique

Selon Tristan Harris, nous arrivons à un moment important pour notre civilisation. Nous ne sommes pas tous conscient des conséquences qu’a la technologie sur nous. On a créé une version marionnette de nous-même que l’on contrôle et qui peut nous contrôler ce qui est une première pour dans l’histoire de l’Humanité. Le jour où nous prendrons conscience de ça, nous pourrons enfin être capable de faire nos choix.

Pour continuer à avancer

Beaucoup de projets sont lancés pour faire comprendre plus rapidement à l’industrie de la technologie qu’il faut agir.

Le rôle du “Center for Humane Technology” est d’aider à prendre conscience du problème et de donner des outils pour mettre en route le changement.

Comme par exemple:

  • – le design kit présenté lors de la conférence;
  • – un podcast;
  • – une conférence prévue pour 2020.

La dégradation de l’humain par la technologie est un sujet majeur, c’est la version culturelle du changement climatique. Et le conférencier pointe du doigt que seulement 1000 personnes peuvent régler ce problème et qu’une partie de ces gens sont dans la salle de conférence! C’est avec eux que le changement doit commencer pour que tout s’enchaîne par la suite.

Pour finir, Tristan Harris invite chacun à prendre ses responsabilités et à changer les choses à son propre niveau:

  • Les designers peuvent intégrer un “full-stack humane design” à leurs produits.
  • Les travailleurs de la technologie peuvent faire entendre leur voix.
  • Les journalistes peuvent mettre en lumière les problèmes systémiques et leurs solutions.
  • Les électeurs peuvent demander une politique contre la dégradation de l’être humain.
  • Les politiques peuvent protéger les citoyens des dérives des entreprises de la technologie.
  • Les actionnaires peuvent demander aux comités d’arrêter les modèles économiques basés sur la dégradation de l’Homme.
  • Les entrepreneurs peuvent concevoir des produits plus respectueux de la nature humaine.
  • Les plateformes peuvent intégrer de nouvelles recommandations en accord avec nos valeurs.