Avec ChatGPT et DALL-E au bout des doigts, l’intelligence artificielle n’a jamais été aussi accessible… et gourmande en ressources. Alors que l’on connaît maintenant les coûts environnementaux catastrophiques de ces mastodontes technologiques, pourquoi ne pas réfléchir à des moyens de les utiliser éthiquement et écologiquement ?
« Dans beaucoup de cas, on ne peut pas échapper à l’IA. Les applications [qu’on utilise quotidiennement] ne nous donnent pas le choix de l’utiliser », dit d’emblée Sasha Luccioni, pionnière de la recherche sur l’impact environnemental de l’IA et nommée l’une des 100 personnes les plus influentes du monde de l’IA par le magazine Time en 2024.
Irréaliste, donc, de vous recommander de vous priver complètement de ces technologies. Ses astuces, qui s’adressent autant à Monsieur et à Madame Tout-le-Monde qu’aux leaders du monde techno, relèvent davantage de la bonne hygiène de vie que de la diète restrictive. En voici quatre.
Dès que vous demandez à une application de créer quelque chose qui n’existe pas, c’est de l’IA générative.
1. Être frugal dans son utilisation de l’IA
« On parle maintenant beaucoup d’IA frugale, qui désigne le fait de ne pas utiliser l’IA générative quand ce n’est pas nécessaire. Il y a des gens qui se servent de ChatGPT pour faire un calcul ou rédiger une liste de courses. Une calculatrice et un bout de papier, ça fait la même chose ! » affirme la chercheuse.
Certains types d’intelligence artificielle sont plus énergivores que d’autres. L’un des plus gloutons (et populaires) : l’IA générative. Lorsqu’il reçoit une requête, l’outil génère une nouvelle réponse, basée sur cette requête. Demandez, par exemple, à ChatGPT, une recette de pain aux bananes sans œufs, et il en créera une de A à Z, juste pour vous.
La même requête, faite sur un moteur de recherche traditionnel, se serait plutôt servie dans les recettes déjà publiées sur le Web… et aurait consommé 30 fois moins d’énergie, selon la chercheuse.
« Parfois, les utilisateurs ne savent même pas qu’ils utilisent ce genre d’IA. Il y en a partout », explique Mme Luccioni. Son truc pour la reconnaître ? « Dès que vous demandez à une application de créer quelque chose qui n’existe pas, c’est de l’IA générative. »
2. Réfléchir au volet éthique… et aux gaffes potentielles
L’IA générative est à la mode. D’ailleurs, les probabilités que le site Internet de votre assureur ou de votre épicier utilise ChatGPT pour répondre à certaines requêtes, ou comme moteur de recherche, sont grandes. Une fausse bonne idée, prévient l’experte.
C’est que, livrée à elle-même, l’IA peut parfois créer des réponses farfelues, offensantes et même dangereuses. L’an dernier, par exemple, l’outil de planification de repas d’un supermarché de la Nouvelle-Zélande a donné une recette d’« eau aromatique » à un utilisateur. Les ingrédients ? Deux litres d’eau, une tasse d’ammoniac et un quart de tasse d’eau de javel. En 2022, l’assistant virtuel d’Air Canada a promis un rabais inexistant à un passager. La compagnie aérienne a finalement été tenue responsable de l’erreur, après avoir argumenté que le robot était « responsable de ses propres actions ».
« Oui, c’est mauvais pour l’environnement, mais c’est aussi une question d’éthique et de responsabilité corporative. »
À lire aussi : La sobriété numérique a bien meilleur goût
3. Se tourner vers d’autres outils
Google utilise maintenant de l’IA générative pour répondre à certaines requêtes. Même chose pour WhatsApp, l’application d’appel et de messagerie de Meta. Sur certaines banques d’images, comme 123RF et Shutterstock, les résultats de recherche mêlent de « vraies » photos (ou illustrations) à des créations générées par l’IA.
Sasha Luccioni aime donc naviguer sur le moteur de recherche Ecosia, bien plus petit que Google, et qui utilise de l’énergie renouvelable pour alimenter ses serveurs. Sans se passer complètement de WhatsApp, la chercheuse se tourne parfois vers l’application Signal, qui n’utilise pas l’IA générative. Pour ceux qui sont à la recherche de photos, il peut être intéressant d’explorer les plateformes qui interdisent les images générées par l’intelligence artificielle, comme Unsplash.
4. Encourager les initiatives transparentes
« Depuis la sortie de ChatGPT, le degré de transparence [dans l’industrie] est quasi inexistant. On ne connaît donc pas la grosseur d’un modèle ni le nombre d’heures d’entraînement », déplore Mme Luccioni.
La chercheuse a contribué à la création de Code Carbon, un outil qui indique aux développeurs l’empreinte carbone d’un système d’intelligence artificielle. Encore faut-il que les informations sur lesquelles se basent les calculs soient accessibles. Difficile, donc, d’évaluer avec précision l’impact environnemental des grands logiciels d’IA. Elle invite les développeurs à opter pour des logiciels libres (open source) et plus petits.
Et pour nous, les novices de l’IA, a-t-elle plus d’astuces ? La chercheuse hésite. C’est une responsabilité, dit-elle, qui devrait plutôt relever des décideurs du monde techno.
« Je trouve qu’on met beaucoup l’accent sur les gestes individuels. Mais c’est dur de mettre la faute sur les consommateurs. En vrai, on est très limités dans nos choix. »
Cet article provient d’un cahier spécial IA et cybersécurité publié par le quotidien Le Devoir.