C’est difficile d’être une personne morale.La technologie le rend plus difficile.

C'est le jour où j'ai lu un article sur Facebook de mon ami malade que j'ai commencé à vraiment remettre en question ma relation avec la technologie.

Un vieil ami avait publié une mise à jour de statut disant qu'il devait se précipiter à l'hôpital parce qu'il avait une crise de santé.J'ai bouché à moitié sur mon thé et j'ai regardé mon ordinateur portable.J'ai reconnu le message comme un plaidoyer pour le soutien.Je ressentais de la peur pour lui, puis… je n'ai rien fait à ce sujet, parce que j'ai vu dans un autre onglet que je venais de recevoir un nouvel e-mail et je suis allé vérifier ça à la place.

Après quelques minutes à faire défiler mon gmail, j'ai réalisé que quelque chose était gâché.Le nouvel e-mail n'était évidemment pas aussi urgent que l'ami malade, et pourtant j'avais agi comme s'ils avaient des revendications égales sur mon attention.Qu'est ce qui ne va pas avec moi?Étais-je une personne terrible?J'ai tiré un message à mon ami, mais j'ai continué à me sentir dérangé.

Peu à peu, cependant, je pensais que c'était moins une indication que j'étais un individu immoral et plus le reflet d'un problème sociétal plus important.J'ai commencé à remarquer que la technologie numérique semble souvent rendre plus difficile pour nous de réagir de la bonne manière lorsque quelqu'un souffre et a besoin de notre aide.

Pensez à toutes les fois où un ami vous a appelé à parler à travers quelque chose de triste ou de stress, et vous pourriez à peine empêcher vos doigts tremblants de vérifier votre e-mail ou de faire défiler Instagram pendant qu'ils parlaient.Pensez à toutes les fois où vous avez vu un article dans votre fil d'actualités Facebook sur les personnes angoissées désespérées de l'aide - des enfants affamés au Yémen, mourant les patients Covid-19 en Inde - pour se laisser distraire par un mème drôle qui apparaît juste au-dessus.

Pensez aux innombrables histoires de téléphones à la caméra court-circuiter la décence humaine.Beaucoup de passants ont assisté à un accident de voiture ou à un combat de poings et ont sorti leur téléphone pour filmer le drame plutôt que de se précipiter pour voir si la victime a besoin d'aide.Un rapport sous communiqué du gouvernement canadien a révélé que lorsque notre expérience du monde est médiée par les smartphones, nous nous fixons souvent sur la capture d'un «spectacle» parce que nous voulons la «ruée» que nous obtiendrons de la réaction instantanée à nos vidéos sur les réseaux sociaux.

Plusieurs études ont suggéré que la technologie numérique raccourcit notre durée d'attention et nous rend plus distraits.Et si cela nous rend aussi moins empathiques, moins sujets à l'action éthique?Et si cela dégrade notre capacité d'attention morale - la capacité de remarquer les caractéristiques moralement saillantes d'une situation donnée afin que nous puissions répondre de manière appropriée?

Il y a beaucoup de preuves pour indiquer que nos appareils ont vraiment cet effet négatif.Les entreprises technologiques continuent de cuire dans des éléments de conception qui amplifient l'effet - des éléments qui nous rendent plus difficile de maintenir une attention ininterrompue aux choses qui comptent vraiment, ou même à les remarquer en premier lieu.Et ils le font même s'il devient de plus en plus clair que c'est mauvais non seulement pour nos relations interpersonnelles individuelles, mais aussi pour notre politique.Il y a une raison pour laquelle l'ancien président Barack Obama dit maintenant qu'Internet et les médias sociaux ont créé «la plus grande menace pour notre démocratie."


L'idée de l'attention morale remonte au moins en ce qui concerne la Grèce antique, où les stoïciens ont écrit sur la pratique de l'attention (prosoché) comme la pierre angulaire d'une bonne vie spirituelle.Dans la pensée occidentale moderne, cependant, les éthiciens ne se concentrent pas trop sur l'attention jusqu'à ce qu'une bande de philosophes féminines arrive, en commençant par Simone Weil.

Weil, un philosophe français du début du XXe siècle et mystique chrétien, a écrit que «l'attention est la forme de générosité la plus rare et la plus pure." She believed that to be able to properly pay attention to someone else — to become fully receptive to their situation in all its complexity — you need to first get your own self out of the way. She called this process “decreation," and explained: “Attention consists of suspending our thought, leaving it detached, empty ...prêt à recevoir dans sa vérité nue l'objet qui est de le pénétrer."

Weil a fait valoir que la vieille attention - le type que vous utilisez lors de la lecture de romans, par exemple, ou l'observation des oiseaux - est une condition préalable à l'attention morale, qui est une condition préalable à l'empathie, qui est une condition préalable à l'action éthique.

Plus tard, les philosophes, comme Iris Murdoch et Martha Nussbaum, ont ramassé et développé les idées de Weil.Ils les ont vaincus dans la langue de la philosophie occidentale;Murdoch, par exemple, fait appel à Platon alors qu'elle écrit sur la nécessité de «selfing." But this central idea of “unselfing" or “decreation" is perhaps most reminiscent of Eastern traditions like Buddhism, which has long emphasized the importance of relinquishing our ego and training our attention so we can perceive and respond to others’ needs.Il offre des outils comme la méditation de pleine conscience pour faire exactement cela.

L'idée que vous devriez vous entraîner à vous vider pour devenir réceptif à quelqu'un d'autre est contraire à la technologie numérique d'aujourd'hui, explique Beverley McGuire, historien de la religion à l'Université de Caroline du Nord Wilmington qui fait des recherches sur l'attention morale.

“Decreating the self — that’s the opposite of social media," she says, adding that Facebook, Instagram, and other platforms are all about identity construction.Les utilisateurs construisent une version ambitieuse d'eux-mêmes, ajoutant toujours plus de mots, d'images et de vidéos, épaississant le soi dans une «marque."

De plus, au cours de la dernière décennie, une multitude de psychologues ont mené de multiples études explorant comment (et à quelle fréquence) les gens utilisent les médias sociaux et la façon dont cela a un impact sur leur santé psychologique.Ils ont découvert que les médias sociaux encouragent les utilisateurs à se comparer aux autres.Cette comparaison sociale est cuite dans la conception des plateformes. Because the Facebook algorithms bump posts up in our newsfeed that have gotten plenty of “Likes" and congratulatory comments, we end up seeing a highlight reel of our friends’ lives.Ils semblent toujours réussir;Nous nous sentons comme des échecs en contraste.Nous passons généralement plus de temps à faire défiler sur Facebook dans l'espoir que nous trouverons quelqu'un de pire, donc nous nous sentons mieux, ou nous publions notre propre mise à jour de statut en soulignant à quel point nos vies vont bien.Les deux réponses perpétuent le cercle vicieux.

En d'autres termes, plutôt que de nous aider.


Et qu'en est-il du courrier électronique?Que se passait-il vraiment le jour où je me suis distrait de la publication Facebook de mon ami malade et je suis allé regarder mon Gmail à la place?J'ai demandé à Tristan Harris, un ancien éthicien de design chez Google.Il dirige maintenant le Center for Humane Technology, qui vise à réaligner la technologie avec l'intérêt supérieur de l'humanité, et il faisait partie du populaire documentaire Netflix The Social Dilemma.

“We’ve all been there," he assures me.«J'ai travaillé sur Gmail moi-même, et je sais comment l'onglet change le nombre entre parenthèses.Lorsque vous voyez le numéro [montez], il puise dans la recherche de nouveauté - comme une machine à sous.Cela vous fait prendre conscience d'une lacune dans vos connaissances et maintenant vous voulez la fermer.C'est un écart de curiosité."

It’s hard to be a moral person. Technology is making it harder.

De plus, les êtres humains évitent naturellement leur attention de stimuli inconfortables ou douloureux comme une crise de santé, Harris ajoute.Et maintenant, avec des notifications qui nous venaient de tous les côtés, «il n'a jamais été plus facile d'avoir une excuse pour atténuer ou laisser un stimulus inconfortable."

En fragmentant mon attention et en ballant devant la possibilité de quelque chose de plus récent et plus heureux, le design de Gmail avait exploité mes vulnérabilités psychologiques innées et m'avait rendu plus susceptible de se détourner du post de mon ami malade, dégradant mon attention morale.

Le problème n'est pas seulement Gmail. Silicon Valley designers have studied a whole suite of “persuasive technology" tricks and used them in everything from Amazon’s one-click shopping to Facebook’s News Feed to YouTube’s video recommender algorithm.Parfois, l'objectif de la technologie persuasive est de nous faire dépenser de l'argent, comme avec Amazon.Mais souvent, c'est juste pour nous faire regarder et faire défiler et cliquer sur une plate-forme aussi longtemps que possible.C'est parce que la plate-forme gagne son argent non pas en nous vendant quelque chose, mais en nous vendant - c'est-à-dire notre attention - aux annonceurs.

Pensez à la façon dont Snapchat vous récompense avec des badges lorsque vous êtes plus sur l'application, comment Instagram vous envoie des notifications à venir consulter la dernière image, comment Twitter vous fait à vainqueVous vous engagez dans un seul...Suite...faire défiler.

Ces applications font un jeu de l'anxiété soulageant.Ils peuvent être sur quelque chose.

Beaucoup de ces astuces peuvent être retracées à BJ Fogg, un spécialiste des sciences sociales qui en 1998 a fondé le Stanford Persuasive Technology Lab pour enseigner aux entrepreneurs en herbe comment modifier le comportement humain par le biais de la technologie.Beaucoup de designers qui ont continué à occuper des postes de direction dans des entreprises comme Facebook, Instagram et Google (y compris Harris) ont traversé les célèbres classes de Fogg.Plus récemment, les technologues ont codifié ces leçons dans des livres comme Hooked by Nir Eyal, qui offre des instructions sur la façon de rendre un produit addictif.

The result of all this is what Harris calls “human downgrading": A decade of evidence now suggests that digital tech is eroding our attention, which is eroding our moral attention, which is eroding our empathy.

En 2010, des psychologues de l'Université du Michigan ont analysé les résultats de 72 études des niveaux d'empathie des étudiants américains menés sur trois décennies. They discovered something startling: There had been aSuitethan 40 percent drop in empathy among students.La majeure partie de cette baisse s'est produite après 2000 - la décennie que Facebook, Twitter et YouTube ont décollé - conduisant à l'hypothèse que la technologie numérique était en grande partie à blâmer.

En 2014, une équipe de psychologues en Californie a rédigé une étude explorant l'impact de la technologie à partir d'une direction différente: ils ont étudié les enfants dans un camp de plein air sans appareil.Après cinq jours sans leurs téléphones, les enfants lisaient avec précision les expressions faciales et les émotions des gens beaucoup mieux qu'un groupe témoin d'enfants.Se parler face à face, semble-t-il, avait amélioré leurs capacités attentionnelles et émotionnelles.

Dans un sondage du Pew Research Center 2015, 89% des répondants américains ont admis qu'ils avaient sorti leur téléphone lors de leur dernière interaction sociale.De plus, 82% ont déclaré qu'il détériorait la conversation et diminuait la connexion empathique qu'ils ressentaient envers les autres personnes avec lesquelles ils étaient.

But what’s evenSuitedisconcerting is that our devices disconnect us even when we’re not using them.Alors que le sociologue du MIT Sherry Turkle, qui fait des recherches sur les effets négatifs de la technologie sur le comportement social, a noté: «Des études de conversation, à la fois en laboratoire et en milieu naturel, montrent que lorsque deux personnes parlent, la simple présence d'un téléphone sur une tableentre eux ou à la périphérie de leur vision change à la fois ce dont ils parlent et le degré de connexion qu'ils ressentent.Les gens maintiennent la conversation sur des sujets où ils ne se soucieront pas d'être interrompus.Ils ne se sentent pas aussi investis les uns dans les autres."

Nous vivons dans le cauchemar de Simone Weil.


La technologie numérique n'édente pas seulement notre attention.Il divise et redirige également notre attention sur des écosystèmes d'information distincts, de sorte que les nouvelles que vous voyez sont différentes, disons, les nouvelles que votre grand-mère voit.Et cela a des effets profonds sur ce que chacun de nous finit par considérer comme moralement saillant.

Pour faire ce béton, pensez aux récentes élections américaines.Alors que l'ancien président Donald Trump a accumulé des millions de voix, de nombreux libéraux se demandaient incrédule comment près de la moitié de l'électorat pouvait voter pour un homme qui avait mis des enfants dans des cages, a permis une pandémie qui avait tué plusieurs milliers d'Américains, et bien plus encore.Comment tout cela n'était-il pas un dealbreaker?

“You look over at the other side and you say, ‘Oh, my god, how can they be so stupid? Aren’t they seeing the same information I’m seeing?’" Harris said."Et la réponse est qu'ils ne sont pas."

Les électeurs de Trump ont vu une version très différente de la réalité que d'autres au cours des quatre dernières années. Their Facebook, Twitter, YouTube, and other accounts fed them countless stories about how the Democrats are “crooked," “crazy," or straight-up “Satanic" (see under: QAnon). These platforms helped ensure that a user who clicked on one such story would be led down a rabbit hole where they’d be met bySuiteandSuitesimilar stories.

Say you could choose between two types of Facebook feeds: one that constantly gives you aSuitecomplex andSuitechallenging view of reality, and one that constantly gives youSuitereasons why you’re right and the other side is wrong.Lequel préférez-vous?

Most people would prefer the second feed (which technologists call an “affirmation feed"), making that optionSuitesuccessful for the company’s business model than the first (the “confronting feed"), Harris explained. Social media companies give usersSuiteof what they’ve already indicated they like, so as to keep their attention for longer. The longer they can keep users’ eyes glued to the platform, theSuitethey get paid by their advertisers.Cela signifie que les entreprises en profitent en mettant chacun de nous dans notre propre bulle idéologique.

Pensez à la façon dont cela se déroule lorsqu'une plate-forme en a 2.7 milliards d'utilisateurs, comme le fait Facebook.Le modèle d'entreprise déplace notre attention collective sur certaines histoires à l'exclusion d'autres.En conséquence, nous devenons de plus en plus convaincus que nous sommes du bien et que l'autre côté est mauvais.Nous devenons moins empathiques pour ce que l'autre côté aurait pu vivre.

En d'autres termes, en rétrécissant notre attention, le modèle d'entreprise finit également par réduire notre attention morale - notre capacité à voir qu'il peut y avoir d'autres perspectives qui comptent moralement.

Les conséquences peuvent être catastrophiques.

Myanmar offre un exemple tragique.Il y a quelques années, les utilisateurs de Facebook y ont utilisé la plate-forme pour inciter à la violence contre les Rohingyas, un groupe minoritaire principalement musulman dans le pays bouddhiste-majorité. The memes, messages, and “news" that Facebook allowed to be posted and shared on its platform vilified the Rohingya, casting them as illegal immigrants who harmed local Buddhists.Grâce à l'algorithme Facebook, ces publications émotionnelles ont été partagées d'innombrables fois, attirant l'attention des utilisateurs sur une vue toujours plus étroite et plus sombre des Rohingyas.La plate-forme, de son propre aveu, n'a pas fait assez pour rediriger l'attention des utilisateurs vers des sources qui remettraient en question cette vue en question.L'empathie a diminué;La haine a grandi.

En 2017, des milliers de Rohingyas ont été tués, des centaines de villages ont été brûlés au sol et des centaines de milliers ont été contraints de fuir.C'était, a déclaré les Nations Unies: «Un exemple de manuel de nettoyage ethnique."

La démocratie du Myanmar était connue depuis longtemps pour être fragile, tandis que les États-Unis ont été considérés comme une démocratie par excellence.Mais Obama n'exagérait pas quand il a dit que la démocratie elle-même était en jeu, y compris sur le sol américain. The past few years have seen mounting concern over the way social media gives authoritarian politicians a leg up: By offering them a vast platform where they can demonize a minority group or other “threat," social media enables them to fuel a population’s negative emotions — like anger and fear — so it will rally to them for protection.

“Negative emotions last longer, are stickier, and spread faster," explained Harris. “So that’s why the negative tends to outcompete the positive" — unless social media companies take concerted action to stop the spread of hate speech or misinformation.Mais même en ce qui concerne les élections américaines conséquentes en 2020, pour lesquelles ils avaient suffisamment de temps pour se préparer, leur action était toujours trop peu, trop tard, ont noté.La façon dont l'attention, et par extension, l'attention morale, a été façonnée en ligne a fini par élever un résultat moral tragique hors ligne: cinq personnes sont mortes dans l'émeute du Capitole.


Les personnes qui soulignent les dangers de la technologie numérique sont souvent rencontrées par quelques critiques communes.Le premier va comme ceci: ce n'est pas la faute des entreprises technologiques.Il est de la responsabilité des utilisateurs de gérer leur propre consommation.Nous devons cesser d'être si paternalistes!

Ce serait une bonne critique s'il y avait une puissance symétrique entre les utilisateurs et les entreprises technologiques.Mais comme l'illustre le documentaire le dilemme social, les entreprises nous comprennent mieux que nous les comprenons - ou nous-mêmes.Ils ont des superordinateurs qui testent précisément quelles couleurs, sons et autres éléments de conception sont les meilleurs pour exploiter nos faiblesses psychologiques (dont beaucoup nous ne sommes même pas conscients) au nom de notre attention.Par rapport à leur intelligence artificielle, nous sommes tous des enfants, dit Harris dans le documentaire.Et les enfants ont besoin d'une protection.

Une autre critique suggère: la technologie peut avoir causé des problèmes - mais il peut également les résoudre.Pourquoi ne construisons-nous pas la technologie qui améliore l'attention morale?

“Thus far, much of the intervention in the digital sphere to enhance that has not worked out so well," says Tenzin Priyadarshi, the director of the Dalai Lama Center for Ethics and Transformative Values at MIT.

Ce n'est pas faute d'essayer.Priyadarshi et des concepteurs affiliés au centre ont essayé de créer une application, 20 jours, qui donne des mises à jour continues sur ce qu'une autre personne fait et ressent.Vous apprenez où ils sont, mais ne découvrez jamais qui ils sont. The idea is that this anonymous yet intimate connection might make youSuitecurious or empathetic toward the strangers you pass every day.

Ils ont également conçu une application appelée Mitra. Inspired by Buddhist notions of a “virtuous friend" (kalyāṇa-mitra), it prompts you to identify your core values and track how much you acted in line with them each day.L'objectif est d'augmenter votre conscience de soi, de transformer votre esprit en «un meilleur ami et allié."

J'ai essayé cette application, choisissant la famille, la gentillesse et la créativité comme les trois valeurs que je voulais suivre.Pendant quelques jours, cela a très bien fonctionné. Being primed with a reminder that I value family gave me the extra nudge I needed to call my grandmotherSuiteoften.Mais malgré mon excitation initiale, j'ai vite tout oublié de l'application.Cela ne m'a pas envoyé de notifications push me rappelant de me connecter chaque jour.Cela ne m'a pas félicité lorsque j'ai réalisé une séquence de plusieurs jours consécutifs. It didn’t “gamify" my successes by rewarding me with points, badges, stickers, or animal gifs — standard fare in behavior modification apps these days.

Je détestais admettre que l'absence de ces astuces m'a amené à abandonner l'application.Mais quand j'ai avoué cela à McGuire, professeur de Wilmington à l'Université de Caroline du Nord, elle m'a dit que ses étudiants avaient réagi de la même manière.En 2019, elle a mené une étude officielle sur les étudiants qui ont été invités à utiliser Mitra.Elle a constaté que bien que l'application ait augmenté leur attention morale dans une certaine mesure, aucun d'entre eux n'a dit qu'ils continueraient à l'utiliser au-delà de l'étude.

“They’ve become so accustomed to apps manipulating their attention and enticing them in certain ways that when they use apps that are intentionally designed not to do that, they find them boring," McGuire said.

Priyadarshi told me he now believes that the “lack of addictive features" is part of why new social networks meant asSuiteethical alternatives to Facebook and Twitter — like Ello, Diaspora, or App.net - ne parvenez jamais à peler beaucoup de gens des grandes plates-formes.

Il travaille donc à concevoir une technologie qui améliore l'attention morale des gens sur les plateformes où ils passent déjà du temps. Inspired by pop-up ads on browsers, he wants users to be able to integrate a plug-in that periodically peppers their feeds with good behavioral nudges, like, “Have you said a kind word to a colleague today?" or, “Did you call someone who’s elderly or sick?"

Cela semble bien, mais implicite est une abandon à un fait déprimant: des entreprises comme Facebook ont trouvé une stratégie gagnante pour monopoliser notre attention.Les technologues ne peuvent pas convertir les gens à moins qu'ils ne soient prêts à utiliser les mêmes astuces nuisibles que Facebook, que certains penseurs se sentent vaincre le but.

Cela soulève une question fondamentale.Étant donné que l'attention de notre attention fait de manière manipulante de ce qui rend Facebook au succès, si nous lui demandons de accrocher notre attention moins, cela le nécessite-t-il pour renoncer à certains de ses bénéfices?

“Yes, they very much would have to," Harris said.«C'est là que cela devient mal à l'aise, car nous réalisons que toute notre économie est enchevêtrée avec cela. More time on these platforms equalsSuitemoney, so if the healthy thing for society was less use of Facebook and a very different kind of Facebook, that’s not in line with the business model and they’re not going to be for it."

En effet, ils ne sont pas pour ça. Facebook ran experiments in 2020 to see if posts deemed “bad for the world" — like political misinformation — could be demoted in the News Feed.Ils le pouvaient, mais à un coût: le nombre de fois que les gens ont ouvert Facebook.L'entreprise a abandonné l'approche.


Alors, que pouvons-nous faire?Nous avons deux options principales: la réglementation et l'autorégulation.Nous avons besoin des deux.

Sur le plan sociétal, nous devons commencer par reconnaître que Big Tech ne changera probablement pas à moins que la loi ne l'oblige, ou qu'elle devienne trop coûteuse (financièrement ou de réputation) pour ne pas changer.

Donc, une chose que nous pouvons faire en tant que citoyens est de demander la réforme de la technologie, de faire pression du public aux dirigeants technologiques et de les appeler s'ils ne répondent pas.Pendant ce temps, les experts en politique technologique peuvent faire pression pour de nouvelles réglementations.Ces réglementations devront changer les incitations de Big Tech en punissant un comportement indésirable - par exemple, en forçant les plateformes à payer les préjudices qu'ils infligent à la société - et en récompensant le comportement humain.Des incitations modifiées augmenteraient les chances que si les technologues en plein essor conçoivent la technologie non manipulative et que les investisseurs optent pour eux, leurs meilleures technologies peuvent réellement décoller sur le marché.

Les modifications réglementaires sont déjà en vue: il suffit de regarder les récentes accusations antitrust contre Google aux États-Unis, et les décisions du président Joe Biden de nommer la critique de la grande technologie Lina Khan en tant que présidente de la Federal Trade Commission et de signer un décret général qui vise à viser le but de prendre en chargePratiques anticoncurrentielles en technologie.

Comme l'historien Tim Wu a raconté dans son livre The Attention Merchants, nous avons des raisons d'espoir à une approche réglementaire: dans le passé, quand les gens ont estimé qu'une nouvelle invention devenait particulièrement distrayante, ils ont lancé des contre-mouvements qui l'ont restreint avec succès.Lorsque des affiches lithographiques colorées sont survenues sur les lieux dans la France du XIXe siècle, remplissant soudainement l'environnement urbain, les Parisiens sont devenus dégoûtés des publicités.Ils ont promulgué des lois pour limiter où les affiches peuvent aller.Ces réglementations sont toujours en place aujourd'hui.

Changer le paysage réglementaire est crucial car le fardeau ne peut pas être tout sur l'individu pour résister aux machines conçues pour être incroyablement irrésistibles.Cependant, nous ne pouvons pas simplement attendre que les lois nous sauvent.Priyadarshi a déclaré que la technologie numérique se déplace trop vite pour cela. “By the time policymakers and lawmakers come up with mechanisms to regulate, technology has gone 10 years ahead," he told me."Ils jouent toujours au rattrapage."

Ainsi, même si nous recherchons la réglementation des grandes technologies, nous, les individus, devons apprendre à s'autoréguler - pour former notre attention du mieux que nous pouvons.

C'est le résultat du livre de Jenny Odell How To Do Nothing.Ce n'est pas une chape anti-technologie nous exhortant à simplement fuir Facebook et Twitter.Au lieu de cela, elle nous exhorte à essayer «la résistance en place."

“A real withdrawal of attention happens first and foremost in the mind," she writes.«Ce qui est nécessaire, donc, n'est pas un type« une fois pour tout », mais une formation continue: la capacité non seulement à retirer l'attention, mais à l'investir ailleurs, à l'agrandir et à la proliférer, à améliorer sonacuité."

Odell décrit comment elle a formé son attention en étudiant la nature, en particulier les oiseaux et les plantes.Il existe de nombreuses autres façons de le faire, de la méditation (comme les bouddhistes le recommandent) à la littérature de lecture (comme le recommande Martha Nussbaum).

Quant à moi, je fais les trois. In the year since my sick friend’s Facebook post, I’ve becomeSuiteintentional about birding, meditating, and reading fiction in order to train my attention.Je construis des muscles attentionnels dans l'espoir que, la prochaine fois que quelqu'un aura besoin de moi, je serai là pour eux, entièrement présent, ravi.

Les rapports de cet article ont été soutenus par les théologies publiques de la technologie et de la présence, une initiative de journalisme et de recherche basée à l'Institut des études bouddhistes et financé par la Fondation Henry Luce.

Sigal Samuel est un journaliste senior pour le futur parfait de Vox et co-animateur du futur podcast parfait.Elle écrit sur l'intelligence artificielle, les neurosciences, le changement climatique et l'intersection de la technologie avec l'éthique et la religion.


Allez-vous soutenir le journalisme explicatif de Vox?

Des millions de personnes se tournent vers Vox pour comprendre ce qui se passe dans les nouvelles. Our mission has never beenSuitevital than it is in this moment: to empower through understanding.Les contributions financières de nos lecteurs sont un élément essentiel pour soutenir notre travail à forte intensité de ressources et nous aider à garder notre journalisme gratuitement pour tous.Veuillez envisager de contribuer à Vox aujourd'hui.

Articles populaires