Get new episodes right on your device by following us wherever you get your podcasts:
Click for the podcast transcript // Cliquez pour la transcription en français
You’ve probably heard of ChatGPT. It’s a chatbot that uses a form of artificial intelligence called generative AI. And it can do everything from suggest wine pairings to write a cover letter.
But how exactly should we be using this new technology in the workplace? Our guest this episode is Yannick Lallement, Vice President, Corporate Functions Analytics and Chief Artificial Intelligence Officer at Scotiabank. He’ll shed some light on how people are already using generative AI in the workplace, what the risks and blind spots are and where he sees this technology heading in the future.
Looking for a great explainer on how AI works? With cats?! Check out Yannick's last appearance on the show.
Key moments this episode:
1:41 — Stephen attempts to use ChatGPT... and finds one of the app’s shortcomings
2:09 — What is generative AI? How is it different from other forms of AI?
3:22 — A quick ChatGPT primer – what exactly is it?
5:52 — What is ChatGPT most useful for?
8:25 — The benefits of using ChatGPT in the workplace – some examples of where it is currently helping people do their jobs
11:16 — Why ChatGPT is a tool, not a replacement for someone’s job
12:10 — Two main concerns with using ChatGPT in the workplace
13:30 — What is a ‘hallucination’ when it comes to generative AI?
14:11 — Ethical issues in how ChatGPT is trained
16:16 — How Yannick sees the future of how we use generative AI in the workplace
Stephen Meurice: Have you tried ChatGPT? If you haven’t I’m sure you’ve at least heard of it. It’s basically an eerily smart chatbot. It uses a form of artificial intelligence called generative AI. And it can do everything from suggest wine pairings to make a vacation itinerary to write a cover letter. You just ask it a question, or give it a prompt, and boom — you get your answer. Seemingly like magic.
Yannick Lallement: ChatGPT is something very special. Because it's an entity that you can converse with. That you can talk to, that you can have a dialogue with.
SM: That’s our resident AI expert, Yannick Lallement.
YL: It's literally the very first time in the history of humanity that we humans can speak to someone or to something that is not human.
SM: Game changing, awe inspiring and maybe a little unsettling? Especially if you’re thinking, “Is this thing gonna take my job?”
YL: So because this thing can converse with us, we tend to ascribe it all the virtues of being human, right? Especially being intelligent, being able to make plans, thinking about how you want to approach a problem and whatnot. But it's none of that.
SM: So then how exactly should we be using this new technology? Yannick is Vice President, Corporate Functions Analytics and Chief Artificial Intelligence Officer at Scotiabank. He’s here today to shed some light on how people are already using generative AI in the workplace, what the risks and blind spots are and where he sees this technology heading in the future. I’m Stephen Meurice and this is Perspectives.
Yannick, thanks for joining us again. Really appreciate you coming.
YL: Thanks for having me.
SM: So we're talking about ChatGPT today. And in preparation for that, I actually downloaded the ChatGPT app on my phone and I asked it to write a short bio of Yannick Lallement. It said, ‘I'm sorry, but as of my last knowledge update in September 2021, I don't have information on Yannick Lallement.’
YL: I'm not famous enough for ChatGPT.
SM: [laughs] We'll get into some of the shortcomings of ChatGPT, but maybe we'll start out with some of the basics. So last time you came on the show, you summarized what AI is for us, using cats of all things to illustrate, which was very helpful. Maybe you can now break down what generative AI in a simple sort of way? How is it different from regular AI? And your answer can involve cats or not. That's up to you.
YL: [laughs] In the past, before generative AI, AI was essentially used for two things either classifying things, meaning identifying things. An example is a cat in a picture, that's a classification. Or to predict things. For example, predict what next video someone might want to look at like YouTube does. Generative AI doesn't do those things, it doesn't classify, it doesn't predict. Instead, it creates things. It can create mostly two types of things. One is pictures. You can describe the picture you want and it's going to create many. And hopefully one of them will be exactly what you're looking for. Or it can generate text. And of course, that's the case of ChatGPT. You can say what you want it to create and it's going to generate a plausible text and you can regenerate the text as many times as you want until you have what you want.
SM: Can you give me a little bit of a primer on ChatGPT itself? I mean, everybody's heard of it by this point, but who makes it? How long has it been around? How does somebody go about using it if they haven't used it already? Is it free?
YL: So ChatGPT came out about one year ago. It's been created by a company called OpenAI. The original goal of OpenAI was to create open source AI models. Since then, they have pivoted to regular commercial models. It's just free for personal use. They have paid versions for enterprise use. What ChatGPT does really is predict text. So, if you ask a question, it's going to predict what can follow that question. And typically what follows a question is an answer, and that's the gist of what it's doing. How it works is, it works by having learned from an unbelievable number of successive word predictions. The people who trained ChatGPT essentially took the entire Internet, and that represents about 300 billion words. Imagine a giant book made of 300 billion words, and that would be the entire collected internet. And ChatGPT was trained to, given a few worlds, predict the next one, 300 billion times. So, for example, if I say, “After running up the stairs, Julia was out of.” And I ask you what the next word that might come after that, you may say, “Breath. After running up the stairs, Julia was out of breath.” And you did that 300 billion times. And in the end, you have this model that has learned lots of facts, that has learned to produce good English and so on. On top of that, there is an extra layer of human training where humans rate which answer they prefer after the model generates five or six answers. And so that's how if you use ChatGPT, you've probably noticed it tends to be a little verbose when it answers. It tends to repeat the questions you've asked when it answers. This is because the humans who decided which answer they preferred, preferred the longer, verbose answers that repeat the question.
SM: So, ChatGPT has inhaled the entire contents of the Internet and with that you can ask it a question, ask it to do something, write a letter, write an email, produce a text of some kind, answer a factual question, and it will instantly spit out that answer.
YL: Yeah, that's pretty much it.
SM: So I imagine the uses that you could put this to are unlimited, almost. From getting it to write a text to your friend, to… could you get it to write a book? Could you say, write me a 300-page book about Napoleon.
YL: So you can, but it's not going to be very good at it. There reason is that it has what is called, technically speaking, a context window that's a few thousand words. And so the next world that is produced is in the context of those last few thousand words. But a book, a novel is much longer than that. And so it will quickly lose track of what happens before those few thousand words. If you read large novels, you know, War and Peace, it's millions of words. But when you read the end of War and Peace, you still have in mind the beginning, right? You still remember what happened from the beginning of the story. ChatGPT does not have that ability to remember, it is only the last few thousand words, anything that came before that is forgotten. And so you can produce short text and that's going to work very well. Novels, it's essentially not going to work.
SM: So what is the thing that it's probably most useful for for a regular person?
YL: It's pretty good at answering general knowledge questions. It has learned more knowledge than any human has in their heads by far. So anything you would do with Google, you know, find information about something, you can do with ChatGPT. And instead of having a list of documents to comb through to find your answers, you will have the answer directly from ChatGPT. There is one big caveat when you use it this way, it's that the answer is not always factual. It is most of the time factual. And when I say most of the time, it's really nine times out of ten, something along those lines. But you always have to take it with a grain of salt because of course when you see the answer, you don't know if it's that one time where it got it wrong. And the reason is the way it's been trained. It's been trained to predict the next word and the next word after that and the next word after that. So it produces text that is plausible in the context of what it has learned, right. But it doesn't have a model of the world. It just has a text model. And so there's many more different texts than there are facts, right? You can say Mars is green, Mars is red, Mars is blue. That's three pieces of text. Only one of them is a fact. And also it's not able to quote any sources, right. It will answer your question without saying where the answer comes from. Whereas Google, it's almost the opposite. Google will give you the references and then you deal with the references and you find the answer in there. So GPT will gives you the answer without any of the references.
SM: I'm sure people have heard all sorts of opinions on ChatGPT by now, good and bad. Maybe we can start by talking about the benefits of using ChatGPT in the workplace. Can you give me some specific examples where generative AI like ChatGPT is currently helping people to do their job?
YL: So it depends on the kind of job. And one thing that we have to remember is that it's a tool. So it's not a person, it's not smart like any human being. It is able to produce text in response to text. And so really it's a very specific tool. That being said, that has lots of uses. We did a survey at Scotiabank recently among the employees that expressed interest in ChatGPT, and we asked how they are using it for work. Roughly one third of the respondents said they were using it for work. And out of the respondents that are using it for work, 86% found it useful. So what do they do with it? They do things like creative writing, so creating social media posts, editing them to make them shorter or longer or more formal, less formal, simpler, punchier, even funnier. All of that, ChatGPT can really help you do. It's not going to create an interesting social media post for you from nothing. You will have to guide it and be very specific in what you want, but it will help you produce it faster, for example. Other things it’s really good at is analyzing and summarizing complex text. So for example, we are a bank, we deal with a lot of regulations, and regulations are typically very long and difficult to understand. So, it's very good at summarizing, extracting the key points. So at least you can know if the text you are looking at is relevant for you or not. And then you can dive into it deeper. It's very good with helping you with Excel formulas. Excel formulas are essentially a programing language, but most of us who do use Excel are not software developers, so we don't necessarily know how to program those formulas so easily. But for ChatGPT, Excel formulas are just a language like English or what have you. So it's very good at translating English into an Excel formula. And then we got a lot of really creative ideas, too. One of my favourites is one of our procurement officers, she deals with specifically AI related products. She uses it to program ChatGPT to simulate being a vendor in a negotiation with her. And so she can have a session with ChatGPT where she explains, you know, ‘This is where I'm at with this vendor. That's the context. That's what happened. What is the vendor going to get back to me with and how can I prepare for that?’ Again, very, very specific. It does not replace anyone. It just helps our procurement officer actually be ready for next time she talks to her vendor.
SM: And that seems to be the undertone of a lot of what you're saying. It's a tool. It's not meant, at least at this point, to replace people in doing their jobs. Is that how you see it?
YL: Yeah, that is very, very much how I see it. ChatGPT is something very special because it's an entity that you can converse with, right? That you can talk to, that you can have a dialogue with. It's literally the very first time in the history of humanity that we humans can speak to someone or to something that is not human, right? So, because this thing can converse with us, we tend to ascribe it all the virtues of being human, right? Especially being intelligent, being able to make plans, foreseeing the future, thinking about how you want to approach a problem and whatnot. But it's none of that. Even though it can have a conversation, it cannot do any of those things. It can just produce text in response to a prompt.
SM: Let's get into the potential downsides of using ChatGPT in the workplace. What are some of the concerns that either you in your role or businesses generally have about introducing ChatGPT in the workplace?
YL: So there are two main concerns. The first one is what we call the third-party risk. ChatGPT is an application that is developed by a third party, by OpenAI. ChatGPT of course is not the only one. Google has similar things, Microsoft does as well. And we need to be sure that anything we type into ChatGPT will not be leaked, right, will not be out in the public at some point, especially, of course, if we want to use confidential data. So for now, the approach we have taken at the Bank is very conservative. You know, we are a bank. We don't want any of our data to risk being leaked. And so we allow using ChatGPT exclusively when we use public data. So, asking for questions in general is perfectly acceptable, but pasting any bank data into it is not going to be acceptable. But again, this is a third-party risk that happens with any software that we use from any vendor. And then on top of that, there are risks that are connected uniquely to that specific technology, to the generative AI technology, and it's the risk of hallucination. If you ask a question. Most of the time the answer will be correct, but not always.
SM: Just so I'm clear, hallucinations are when ChatGPT doesn't know something, so it just makes it up?
YL: Yes, they will always produce text in response to the question. There is just no possible guarantee that the answer is correct.
SM: But it will say it with the utmost confidence.
YL: Yes, and that's very confusing for us humans because we don't act like this with each other. When we are not sure, we tend to say it. So part of it is employee education. We have told everybody that yes, everyone is allowed to use ChatGPT, but essentially there are two guardrails. Number one is we can use exclusively public data and number two is you must vet the answer. Whatever answer ChatGPT gives you, you have to double check.
SM: Okay. Are there any ethical issues with how ChatGPT is trained?
YL: The problem is that the corpus is so large that nobody can review that corpus and see what's in it. Again, it's essentially the entirety of the Internet. OpenAI don't disclose what the corpus is exactly anyway, so nobody can double check. It turned out recently some researchers found that some content from 4Chan was used in the training corpus. So if you don't know what 4Chan is, it's a website you don't want to visit and it probably shouldn't have made it in the training corpus. But that's going to create some dilemmas for ChatGPT when answering specific questions, for example.
SM: And when you say corpus you mean the data set it uses to train, right?
YL: That’s exactly it, yes. Another concern, potentially more pressing, is that any text that has been used by ChatGPT for training was used without the permission of its creator. So, ChatGPT, for example it has ingested the entirety of the New York Times archive that is available online. But The New York Times never consented to that. And of course, it's not just The New York Times. So, this is playing out in courts at the moment. It's not clear which way it will go. But the same concern exists for generative art model because all of the artists whose work has been used to train the models, none of them consented to their work being used this way.
SM: Yeah. So some massive copyright issues that are going to play out eventually.
YL: Yeah and it's not clear which way it will go.
SM: So I mentioned earlier in the example of trying to get ChatGPT to write a bio about you, and it said it didn't have any information up to, whatever it was, September 2021. Is ChatGPT continuing to learn or is it stuck at that point in time where nothing that's happened since then is included in its answers?
YL: It is stuck at that point in time. If they want to bring it up to date, they essentially have to retrain the model one time again from scratch. So maybe that's going to be, you know, the next version of ChatGPT. But the current one is frozen for good.
SM: Okay, so how do you see the future of ChatGPT or generative AI in terms of the world of work?
YL: So, you're asking me to predict the future?
SM: Yes, of course.
[both laugh]
YL: The answer is not clear yet. My personal prediction is that we are going to see a lot of small applications that are useful for various specific jobs. So, for example, you can have QA bots that will answer contact centre agents’ questions. So when they're on the phone with a customer, they don't always have all the answers, especially if the customer is asking for something a little unusual. We also have been looking at many other types of use case. One is this vendor simulation. You can imagine having a mini user interface for procurement agents where they can use that to train and get ready. All those small applications, I think, will get to their own mini piece of software, and each of them will be targeted to a very specific group of employees. That's how I think it's going to play out.
SM: So ten years from now, is ChatGPT or one of its competitors going to be everywhere? Is it going to be part of our daily lives?
YL: I think it will be. It's already starting to be part of our daily lives. It's going to get better and better. It's going to be integrated in more and more applications like the Microsoft Office Suite and so on. So, yes, I have a strong prediction for this one. Let's meet again in ten years.
SM: [laughs] Okay, I’ll put it in my calendar. Until then, Yannick — thanks so much for joining us again today.
YL: Thanks for having me. Pleasure to be here.
SM: I’ve been speaking with Yannick Lallement, Vice President, Corporate Functions Analytics and Chief Artificial Intelligence Officer at Scotiabank. And as we mentioned at the start of the interview, Yannick’s been on the show before with a great explainer about how AI works in general. You can find that in our feed and we'll link to it in the show notes as well. The Perspectives podcast is made by me, Stephen Meurice, as well as Armina Ligaya and our producer Andrew Norton.
La transcription suivante a été générée à l'aide de la traduction automatique.
Stephen Meurice : Avez-vous essayé ChatGPT? Si ce n'est pas le cas, je suis sûr que vous en avez au moins entendu parler. Il s'agit essentiellement d'un chatbot étrangement intelligent. Il utilise une forme d'intelligence artificielle appelée IA générative. Et il peut tout faire, de la suggestion d'accords mets-vins à la création d'un itinéraire de vacances en passant par la rédaction d'une lettre de présentation. Il suffit de lui poser une question, ou de lui donner une incitation, et boum, vous obtenez votre réponse. Apparemment comme par magie.
Yannick Lallement : ChatGPT est quelque chose de très spécial. Parce que c'est une entité avec laquelle vous pouvez converser. Avec qui vous pouvez parler, avec lesquels vous pouvez avoir un dialogue.
SM : C'est notre expert en IA résident, Yannick Lallement.
YL : C'est littéralement la toute première fois dans l'histoire de l'humanité que nous, les humains, pouvons parler à quelqu'un ou à quelque chose qui n'est pas humain.
SM : Changer la donne, inspirer et peut-être un peu troublant? Surtout si vous vous dites : « Est-ce que cette chose va prendre mon emploi? »
YL : Donc, parce que cette chose peut converser avec nous, nous avons tendance à lui attribuer toutes les vertus d'être humain, n'est-ce pas? Surtout être intelligent, être capable de faire des plans, réfléchir à la façon dont vous voulez aborder un problème et tout le reste. Mais ce n'est rien de tout cela.
SM : Alors, comment devrions-nous utiliser exactement cette nouvelle technologie? Yannick est vice-président, Analytique des fonctions corporatives et chef de l'intelligence artificielle à la Banque Scotia. Il est ici aujourd'hui pour faire la lumière sur la façon dont les gens utilisent déjà l'IA générative en milieu de travail, quels sont les risques et les angles morts et où il voit cette technologie à l'avenir. Je m'appelle Stephen Meurice et c'est Perspectives.
Yannick, merci de vous joindre à nous à nouveau. J'apprécie vraiment votre venue.
YL : Merci de m'avoir invité.
SM : Nous parlons donc de ChatGPT aujourd'hui. Et pour me préparer, j'ai téléchargé l'application ChatGPT sur mon téléphone et je lui ai demandé d'écrire une courte biographie de Yannick Lallement. Il disait : « Je suis désolé, mais depuis ma dernière mise à jour des connaissances en septembre 2021, je n'ai pas d'informations sur Yannick Lallement. »
YL : Je ne suis pas assez célèbre pour ChatGPT.
SM : [rires] Nous allons aborder certaines des lacunes de ChatGPT, mais peut-être que nous commencerons par certaines des bases. La dernière fois que vous êtes venu à l'émission, vous avez résumé ce qu'est l'IA pour nous, en utilisant des chats de toutes choses pour illustrer, ce qui a été très utile. Peut-être pouvez-vous maintenant décomposer quelle IA générative d'une manière simple? En quoi est-elle différente de l'IA ordinaire? Et votre réponse peut impliquer des chats ou non. C'est à vous de décider.
YL : [rires] Dans le passé, avant l'IA générative, l'IA était essentiellement utilisée pour deux choses, soit la classification des choses, soit l'identification des choses. Un exemple est un chat sur une photo, c'est une classification. Ou pour prédire des choses. Par exemple, prédisez la prochaine vidéo que quelqu'un pourrait vouloir regarder, comme le fait YouTube. L'IA générative ne fait pas ces choses, elle ne classe pas, elle ne prédit pas. Au lieu de cela, il crée des choses. Cela peut créer principalement deux types de choses. L'une d'entre elles est les images. Vous pouvez décrire l'image que vous voulez et cela en créera plusieurs. Et j'espère que l'un d'entre eux sera exactement ce que vous recherchez. Ou il peut générer du texte. Et bien sûr, c'est le cas de ChatGPT. Vous pouvez dire ce que vous voulez qu'il crée et cela va générer un texte plausible et vous pouvez régénérer le texte autant de fois que vous le souhaitez jusqu'à ce que vous ayez ce que vous voulez.
SM : Pouvez-vous me donner un peu d'introduction à ChatGPT lui-même? Je veux dire, tout le monde en a entendu parler à ce stade, mais qui le fait? Depuis combien de temps existe-t-il? Comment quelqu'un peut-il l'utiliser s'il ne l'a pas déjà utilisé? Est-ce gratuit?
YL : ChatGPT est sorti il y a environ un an. Il a été créé par une entreprise appelée OpenAI. L'objectif initial d'OpenAI était de créer des modèles d'IA open source. Depuis, ils se sont tournés vers des modèles commerciaux réguliers. C'est tout simplement gratuit pour un usage personnel. Ils ont des versions payantes pour une utilisation en entreprise. Ce que fait ChatGPT, c'est vraiment prédire le texte. Donc, si vous posez une question, elle va prédire ce qui peut suivre cette question. Et généralement, ce qui suit une question est une réponse, et c'est l'essentiel de ce qu'elle fait. La façon dont cela fonctionne, c'est en ayant appris d'un nombre incroyable de prédictions de mots successifs. Les personnes qui ont entraîné ChatGPT ont essentiellement pris tout Internet, ce qui représente environ 300 milliards de mots. Imaginez un livre géant composé de 300 milliards de mots, et ce serait tout l'Internet collecté. Et ChatGPT a été entraîné pour, compte tenu de quelques mondes, prédire le prochain, 300 milliards de fois. Donc, par exemple, si je dis : « Après avoir couru dans les escaliers, Julia n'était plus ». Et je vous demande quel est le prochain mot qui pourrait venir après cela, vous pourriez dire : « Respirez. Après avoir couru dans les escaliers, Julia était essoufflée. Et vous l'avez fait 300 milliards de fois. Et en fin de compte, vous avez ce modèle qui a appris beaucoup de faits, qui a appris à produire un bon anglais et ainsi de suite. En plus de cela, il y a une couche supplémentaire d'entraînement humain où les humains évaluent la réponse qu'ils préfèrent après que le modèle ait généré cinq ou six réponses. Et c'est ainsi que si vous utilisez ChatGPT, vous avez probablement remarqué qu'il a tendance à être un peu verbeux lorsqu'il répond. Il a tendance à répéter les questions que vous avez posées lorsqu'il répond. En effet, les humains qui ont décidé de la réponse qu'ils préféraient préféraient les réponses plus longues et verbeuses qui répètent la question.
SM : Donc, ChatGPT a inhalé tout le contenu d'Internet et avec cela, vous pouvez lui poser une question, lui demander de faire quelque chose, écrire une lettre, écrire un courriel, produire un texte quelconque, répondre à une question factuelle, et il crachera instantanément cette réponse.
YL : Oui, c'est à peu près tout.
SM : J'imagine donc que les utilisations que vous pourriez faire sont presque illimitées. Qu'il s'agisse de lui demander d'écrire un texto à votre ami, à... Pourriez-vous l'amener à écrire un livre? Pourriez-vous me dire un livre de 300 pages sur Napoléon.
YL : Donc, vous pouvez, mais ce ne sera pas très bon. La raison en est qu'il a ce qu'on appelle, techniquement parlant, une fenêtre de contexte de quelques milliers de mots. Et donc le prochain monde qui est produit est dans le contexte de ces derniers milliers de mots. Mais un livre, un roman, c'est beaucoup plus long que cela. Et donc il perdra rapidement de vue ce qui se passe avant ces quelques milliers de mots. Si vous lisez de grands romans, vous savez, Guerre et paix, c'est des millions de mots. Mais quand vous lisez la fin de Guerre et Paix, vous avez toujours en tête le début, n'est-ce pas? Vous vous souvenez encore de ce qui s'est passé dès le début de l'histoire. ChatGPT n'a pas cette capacité à se souvenir, ce ne sont que les derniers milliers de mots, tout ce qui est venu avant qui est oublié. Et donc vous pouvez produire un court texte et cela fonctionnera très bien. Les romans, ça ne va pas fonctionner.
SM : Alors, à quoi sert-il probablement le plus utile pour une personne ordinaire?
YL : C'est assez bon pour répondre à des questions de culture générale. Il a appris plus de connaissances que n'importe quel humain n'en a de loin dans sa tête. Donc, tout ce que vous feriez avec Google, vous savez, trouver des informations sur quelque chose, vous pouvez le faire avec ChatGPT. Et au lieu d'avoir une liste de documents à passer au peigne fin pour trouver vos réponses, vous aurez la réponse directement de ChatGPT. Il y a une grande mise en garde lorsque vous l'utilisez de cette façon, c'est que la réponse n'est pas toujours factuelle. C'est la plupart du temps factuel. Et quand je dis la plupart du temps, c'est vraiment neuf fois sur dix, quelque chose du genre. Mais il faut toujours le prendre avec un grain de sel parce que bien sûr, quand on voit la réponse, on ne sait pas si c'est une fois où on s'est trompé. Et la raison en est la façon dont il a été formé. Il a été entraîné à prédire le mot suivant, le mot suivant et le mot suivant et le mot suivant après cela. Il produit donc un texte qui est plausible dans le contexte de ce qu'il a appris, n'est-ce pas? Mais il n'a pas de modèle du monde. Il a juste un modèle de texte. Et donc il y a beaucoup plus de textes différents que de faits, n'est-ce pas? Vous pouvez dire que Mars est vert, Mars est rouge, Mars est bleu. Ce sont trois morceaux de texte. Un seul d'entre eux est un fait. Et il n'est pas capable de citer des sources, n'est-ce pas. Il répondra à votre question sans dire d'où vient la réponse. Alors que Google, c'est presque le contraire. Google vous donnera les références, puis vous traiterez les références et vous y trouverez la réponse. GPT vous donnera donc la réponse sans aucune des références.
SM : Je suis sûr que les gens ont déjà entendu toutes sortes d'opinions sur ChatGPT, bonnes et mauvaises. Peut-être pourrions-nous commencer par parler des avantages de l'utilisation de ChatGPT sur le lieu de travail. Pouvez-vous me donner des exemples précis où l'IA générative comme ChatGPT aide actuellement les gens à faire leur travail?
YL : Cela dépend donc du type d'emploi. Et une chose que nous devons retenir, c'est que c'est un outil. Ce n'est donc pas une personne, ce n'est pas intelligent comme n'importe quel être humain. Il est capable de produire du texte en réponse au texte. Et donc, c'est vraiment un outil très spécifique. Cela dit, cela a beaucoup d'utilités. Nous avons récemment mené un sondage à la Banque Scotia auprès des employés qui ont exprimé de l'intérêt pour ChatGPT, et nous leur avons demandé comment ils l'utilisaient pour le travail. Environ le tiers des répondants ont déclaré qu'ils l'utilisaient pour le travail. Et parmi les répondants qui l'utilisent pour le travail, 86% l'ont trouvé utile. Alors, qu'en font-ils? Ils font des choses comme l'écriture créative, donc créer des publications sur les médias sociaux, les modifier pour les rendre plus courtes ou plus longues ou plus formelles, moins formelles, plus simples, plus percutantes, voire plus drôles. Tout cela, ChatGPT peut vraiment vous aider à le faire. Cela ne créera pas une publication intéressante sur les médias sociaux pour vous à partir de rien. Vous devrez le guider et être très précis dans ce que vous voulez, mais cela vous aidera à le produire plus rapidement, par exemple. D'autres choses pour lesquelles il est vraiment doué, c'est d'analyser et de résumer des textes complexes. Par exemple, nous sommes une banque, nous traitons beaucoup de règlements, et les règlements sont généralement très longs et difficiles à comprendre. Donc, c'est très bon pour résumer, extraire les points clés. Ainsi, vous pouvez au moins savoir si le texte que vous regardez est pertinent pour vous ou non. Et puis vous pouvez plonger plus profondément. C'est très bien pour vous aider avec les formules Excel. Les formules Excel sont essentiellement un langage de programmation, mais la plupart d'entre nous qui utilisent Excel ne sont pas des développeurs de logiciels, donc nous ne savons pas nécessairement comment programmer ces formules si facilement. Mais pour ChatGPT, les formules Excel ne sont qu'une langue comme l'anglais ou autre. Il est donc très bon pour traduire l'anglais en une formule Excel. Et puis nous avons aussi eu beaucoup d'idées vraiment créatives. L'une de mes préférées est l'une de nos agentes d'approvisionnement, elle s'occupe spécifiquement de produits liés à l'IA. Elle l'utilise pour programmer ChatGPT pour simuler d'être un fournisseur dans une négociation avec elle. Et donc elle peut avoir une session avec ChatGPT où elle explique, vous savez, "C'est là où j'en suis avec ce fournisseur. C'est le contexte. C'est ce qui s'est passé. Qu'est-ce que le fournisseur va me répondre et comment puis-je m'y préparer?" Encore une fois, très, très spécifique. Il ne remplace personne. Cela aide simplement notre agente d'approvisionnement à être prête pour la prochaine fois qu'elle parlera à son fournisseur.
SM : Et cela semble être le sous-entendu de beaucoup de ce que vous dites. C'est un outil. Il ne s'agit pas, du moins à ce stade-ci, de remplacer les gens dans leur travail. Est-ce ainsi que vous voyez les choses?
YL : Oui, c'est très, très bien comme ça que je vois les choses. ChatGPT est quelque chose de très spécial parce que c'est une entité avec laquelle vous pouvez converser, n'est-ce pas? Avec qui vous pouvez parler, avec lesquels vous pouvez avoir un dialogue. C'est littéralement la toute première fois dans l'histoire de l'humanité que nous, les humains, pouvons parler à quelqu'un ou à quelque chose qui n'est pas humain, n'est-ce pas? Donc, parce que cette chose peut converser avec nous, nous avons tendance à lui attribuer toutes les vertus d'être humain, n'est-ce pas? Surtout être intelligent, être capable de faire des plans, prévoir l'avenir, réfléchir à la façon dont vous voulez aborder un problème et tout le reste. Mais ce n'est rien de tout cela. Même s'il peut avoir une conversation, il ne peut faire aucune de ces choses. Il peut simplement produire du texte en réponse à une invite.
SM : Examinons les inconvénients potentiels de l'utilisation de ChatGPT sur le lieu de travail. Quelles sont certaines des préoccupations que vous ou les entreprises avez au sujet de l'introduction de ChatGPT sur le lieu de travail?
YL : Il y a donc deux préoccupations principales. Le premier est ce que nous appelons le risque de tiers. ChatGPT est une application développée par un tiers, par OpenAI. ChatGPT n'est bien sûr pas le seul. Google a des choses similaires, Microsoft aussi. Et nous devons être sûrs que tout ce que nous tapons dans ChatGPT ne sera pas divulgué, n'est-ce pas, ne sera pas rendu public à un moment donné, surtout, bien sûr, si nous voulons utiliser des données confidentielles. Donc, pour l'instant, l'approche que nous avons adoptée à la Banque est très prudente. Vous savez, nous sommes une banque. Nous ne voulons pas qu'aucune de nos données risque d'être divulguée. Nous autorisons donc l'utilisation de ChatGPT exclusivement lorsque nous utilisons des données publiques. Donc, poser des questions en général est parfaitement acceptable, mais y coller des données bancaires ne sera pas acceptable. Mais encore une fois, il s'agit d'un risque tiers qui se produit avec tout logiciel que nous utilisons de n'importe quel fournisseur. Et puis, en plus de cela, il y a des risques qui sont liés uniquement à cette technologie spécifique, à la technologie d'IA générative, et c'est le risque d'hallucination. Si vous posez une question. La plupart du temps, la réponse sera correcte, mais pas toujours.
SM : Juste pour que je sois clair, les hallucinations sont lorsque ChatGPT ne sait pas quelque chose, alors il invente tout simplement?
YL : Oui, ils produiront toujours du texte en réponse à la question. Il n'y a tout simplement aucune garantie possible que la réponse soit correcte.
SM : Mais il le dira avec la plus grande confiance.
YL : Oui, et c'est très déroutant pour nous, les humains, parce que nous n'agissons pas comme ça les uns avec les autres. Lorsque nous ne sommes pas sûrs, nous avons tendance à le dire. Il s'agit donc en partie de l'éducation des employés. Nous avons dit à tout le monde que oui, tout le monde est autorisé à utiliser ChatGPT, mais qu'il y a essentiellement deux garde-fous. Premièrement, nous pouvons utiliser exclusivement des données publiques et deuxièmement, vous devez vérifier la réponse. Quelle que soit la réponse que ChatGPT vous donne, vous devez vérifier.
SM : D'accord. Y a-t-il des problèmes éthiques avec la façon dont ChatGPT est entraîné?
YL : Le problème, c'est que le corpus est si grand que personne ne peut l'examiner et voir ce qu'il contient. Encore une fois, c'est essentiellement l'ensemble d'Internet. OpenAI ne divulgue pas exactement ce qu'est le corpus de toute façon, donc personne ne peut vérifier. Il s'est avéré récemment que certains chercheurs ont découvert qu'une partie du contenu de 4Chan était utilisée dans le corpus d'entraînement. Donc, si vous ne savez pas ce qu'est 4Chan, c'est un site Web que vous ne voulez pas visiter et qu'il n'aurait probablement pas dû figurer dans le corpus de formation. Mais cela va créer des dilemmes pour ChatGPT lorsqu'il répond à des questions spécifiques, par exemple.
SM : Et quand vous dites corpus, vous voulez dire l'ensemble de données qu'il utilise pour s'entraîner, n'est-ce pas?
YL : C'est exactement ça, oui. Une autre préoccupation, potentiellement plus pressante, est que tout texte utilisé par ChatGPT pour l'entraînement a été utilisé sans la permission de son créateur. Ainsi, ChatGPT, par exemple, a ingéré l'intégralité des archives du New York Times qui sont disponibles en ligne. Mais le New York Times n'y a jamais consenti. Et bien sûr, ce n'est pas seulement le New York Times. Donc, cela se joue devant les tribunaux en ce moment. On ne sait pas dans quelle direction cela va. Mais la même préoccupation existe pour le modèle d'art génératif, car tous les artistes dont le travail a été utilisé pour former les modèles, aucun d'entre eux n'a consenti à ce que leur travail soit utilisé de cette façon.
SM : Oui. Donc, d'énormes problèmes de droits d'auteur vont finir par se résoudre.
YL : Oui, et on ne sait pas dans quelle direction ça va.
SM : J'ai mentionné plus tôt dans l'exemple d'essayer de faire en sorte que ChatGPT écrive une biographie à votre sujet, et il a dit qu'il n'avait aucune information jusqu'en septembre 2021. ChatGPT continue-t-il d'apprendre ou est-il coincé à ce moment où rien de ce qui s'est passé depuis n'est inclus dans ses réponses?
YL : C'est bloqué à ce moment-là. S'ils veulent le mettre à jour, ils doivent essentiellement réentraîner le modèle une fois à partir de zéro. Alors peut-être que ce sera, vous savez, la prochaine version de ChatGPT. Mais l'actuelle est gelée pour de bon.
SM : D'accord, comment voyez-vous l'avenir de ChatGPT ou de l'IA générative en termes de monde du travail?
YL : Alors, vous me demandez de prédire l'avenir?
SM : Oui, bien sûr.
[rire les deux]
YL : La réponse n'est pas encore claire. Ma prédiction personnelle est que nous verrons beaucoup de petites applications utiles pour divers emplois spécifiques. Ainsi, par exemple, vous pouvez avoir des robots d'assurance qualité qui répondront aux questions des agents du centre de contact. Ainsi, lorsqu'ils sont au téléphone avec un client, ils n'ont pas toujours toutes les réponses, surtout si le client demande quelque chose d'un peu inhabituel. Nous avons également examiné de nombreux autres types de cas d'utilisation. L'une d'entre elles est cette simulation de fournisseur. Vous pouvez imaginer avoir une mini interface utilisateur pour les agents d'approvisionnement où ils peuvent l'utiliser pour s'entraîner et se préparer. Je pense que toutes ces petites applications auront leur propre mini-logiciel, et chacune d'entre elles ciblera un groupe très précis d'employés. C'est comme ça que je pense que ça va se dérouler.
SM : Donc, dans dix ans, ChatGPT ou l'un de ses concurrents sera-t-il partout? Est-ce que cela fera partie de notre vie quotidienne?
YL : Je pense que ce sera le cas. Cela commence déjà à faire partie de notre vie quotidienne. Ça va s'améliorer de plus en plus. Il sera intégré dans de plus en plus d'applications comme la suite Microsoft Office et ainsi de suite. Donc, oui, j'ai une forte prédiction pour celui-ci. Rencontrons-nous à nouveau dans dix ans.
SM : [rires] D'accord, je vais le mettre dans mon calendrier. D'ici là, Yannick — merci beaucoup de vous joindre à nous aujourd'hui.
YL : Merci de m'avoir invité. C'est un plaisir d'être ici.
SM : J'ai parlé avec Yannick Lallement, vice-président, Analytique des fonctions d'entreprise et chef de l'intelligence artificielle à la Banque Scotia. Et comme nous l'avons mentionné au début de l'entrevue, Yannick a déjà participé à l'émission avec une excellente explication sur le fonctionnement de l'IA en général. Vous pouvez le trouver dans notre fil d'actualité et nous y ferons également un lien dans les notes de l'émission. Le balado Perspectives est réalisé par moi, Stephen Meurice, ainsi que par Armina Ligaya et notre producteur Andrew Norton.