Skip to content

Paris AI Safety Breakfast #4: Rumman Chowdhury

The fourth of our 'AI Safety Breakfasts' event series, featuring Dr. Rumman Chowdhury on algorithmic auditing, "right to repair" AI systems, and the AI Safety and Action Summits.
Published:
December 19, 2024
Author:
Ima (Imane Bello)

This is the fourth of our ‘of ‘AI Safety Breakfasts’ event series, featuring Rumman Chowdhury.

About AI Safety Breakfasts

The AI Action Summit will be held in February 2025. This event series aims to stimulate discussion relevant to the Safety Summit for English and French audiences, and to bring together experts and enthusiasts in the field to exchange ideas and perspectives.

Learn more or sign up to be notified about upcoming AI Safety Breakfasts.

Ima (Imane Bello) is in charge of the AI Safety Summits for the Future of Life Institute (FLI).

The event recording is below.

Video chapters

  • 00:00 – Introduction
  • 01:24 – What are you working on these days, and why do you think it’s important?
  • 03:37 – In what manner should algorithmic auditing be performed? Could an investigative approach be made more systematic?
  • 07:52 – How easy it is to bypass safety mitigations by a knowledgeable and persistent hacker?
  • 16:50 – You delivered a talk called “Your Right to Repair AI Systems”. Tell us more about this right to repair and how it might be crucial in the next waves of models and systems.
  • 25:47 – Do we have technologies that support our ability to learn and be less dependent? Or does the convenience of technology sometimes make us overreliant?
  • 31:34 – What concrete mechanisms would you propose to ensure a global governance body remains independent and avoids capture by corporate or governmental interests?
  • 38:34 – As an expert, is there anything you wish would become more common knowledge among policymakers, journalists, and the general public on audits? Or are there any common misconceptions about this topic that you frequently encounter and would like to address?
  • 39:50 – What would you consider an ideal outcome for the upcoming French Summit?
  • 42:44 – Audience Question: Is it a good idea to build more agentic AI systems? Do the benefits outweigh the risks?
  • 48:14 – Audience Question: What do you think could be the most effective incentives for companies to identify and mitigate risks from their products?
  • 54:09 – Audience Question: What are the main similarities and differences between AI and cybersecurity?
  • 01:00:01 – Audience Question: With regards to auditing, how do you define or find the steps that could be wrong?
  • 01:04:12 – Audience Question: Do you think we should have a more in-depth look at the overreliance risks that AI systems might have on individuals and society before we decide if they are safe or not?

Transcript

Alternatively, you can view the full transcript below.

Transcript: English (Anglaise)

Imane Bello
Thank you so much for being here this morning, having braved the cold and the winter that is actually starting. Rumman, thank you so much for accepting this invitation.

Dr. Rumman Chowdhury
Sure. It’s my pleasure.

Imane Bello
I’m really excited to have you. This is my excited tired face, but that’s my excited face. Very shortly, I’m going to introduce Dr. Chowdhury. I hope I’m pronouncing the name correctly. Her passion lies at the intersection of AI and humanity. She’s a pioneer in the field of applied algorithmic ethics, creating cutting-edge socio-technical solution for ethical, explainable, and transparent AI, among many, many, many of the work that I won’t cite today, but I invite you to take a look at. You currently run Parity Consulting, an algorithmic audit company. Previously, you were the director of META, which is not Meta Facebook, but which is a Machine Learning Ethics, Transparency, and Accountability team at what used to be Twitter. Thank you so much for being here this morning with us.

Dr. Rumman Chowdhury
Thank you so much. I’m very excited. Thank you for coming out so early in the morning.

Imane Bello
All right, let’s start with an opening question. What are you working on these days, and why do you think it’s important?

Dr. Rumman Chowdhury
Great question. I run a non-profit called Humane Intelligence. The purpose of Humane Intelligence is to create the community of practice around algorithmic assessment. One of the things that I have observed over the last few years is there is this growing need for people who can understand the technical implications of how algorithms influence the real world. But that talent is incredibly hard to find. I think some people assume that because you know how to build AI, you know how to assess AI, and that’s simply not true.

Dr. Rumman Chowdhury
What we work on are two things. One is we have these competitions called algorithmic bias bounty programs, and they are designed with a partner who is solving a real-world problem in algorithmic bias. For example, our challenge that just closed was about using computer vision models to identify potential terrorist content. We’re working with this organisation called Revontulet (Revontulet Intelligence) in the Nordics, but also we do red teaming. Our notion of red teaming actually is that anybody in the public can have access to AI models in order to identify and highlight issues with AI systems. Because we’ve now made basically no-code interact-ability… Is that a word? Interactions? No-code interactions with AI models, i.e. ChatGPT, whatever. You don’t need to program to interact with these models, you just type a text.

Dr. Rumman Chowdhury
We take that model, and we say, then that means that we can design a platform, and we can design challenges and exercises for anybody to be able to contribute input into the model performance. Think of it almost like the way you can answer a survey, but instead of doing a survey, you are interacting with an AI system. When you find these issues, you flag them and submit. Why is this important? AI is all everybody talks about now, I promise. It’s not just it’s our world of people. If you turn on the TV, even fiction shows are about AI. If I’m in a cab, the cab driver, if I tell them I work in AI, they have a million questions.

Dr. Rumman Chowdhury
This is clearly something that’s impacting everybody, but everybody does not feel a sense of agency and ownership over how these systems are working for them. While there is excitement, there’s also fear, there’s concern. One of the things we have actually seen from a commercial perspective is that putting artificial intelligence on your product actually reduces sales. People don’t want to buy AI-enabled toothbrushes and AI-enabled vacuum cleaners –those exist– because they don’t trust or understand what AI is.

Dr. Rumman Chowdhury
There’s two parts to doing this red teaming. One is just the critical thinking and awareness that the public needs to have, which I believe is experiential. It’s hands-on. It’s not me lecturing them as to what AI is, it’s them putting their hands on a machine and seeing what it importantly cannot do and what it can do. Second is using that feedback to actually help create better AI models.

Imane Bello
Thank you. In your extensive work on algorithmic auditing, you’ve critiqued the typical academic approach to auditing, which often begins with a technical hypothesis on end data analysis. Instead, you propose an auditor’s role should be more akin to a detective, identifying potential investigation pathways rather than conducting immediate tactical deep dives. How can this investigative approach be systemised to ensure comprehensive and efficient algorithmic oversight, particularly in rapidly evolving technological landscapes?

Dr. Rumman Chowdhury
Often the work of auditor is, as you mentioned, a detective. You don’t immediately know what the problem is. Actually, with artificial intelligence, it’s quite difficult because what you can see is an outcome. For example, there is some bias or discriminatory outcome, the model did not perform as expected. What you don’t know is why that happened. In contrast, I think there’s often parallels made with cybersecurity. I already used the term red teaming, which is actually a cybersecurity construct, and we’re seeing more and more people talk about AI security the way cybersecurity works.

Dr. Rumman Chowdhury
There are some ways in which it’s not the same. There are many ways in which it is actually, but there are some ways in which it’s not. The first and foremost is that the existence of a problem doesn’t automatically tell you where it derived from. In cybersecurity, when somebody hacks, when somebody read teams, they say, “I did A, B, and C, and then I broke through your firewall. If you’re going to repair that, you just make sure nobody can do A, B, and C.” It’s not the same for AI systems. If I say, “This is the prompt I gave, and I got this outcome,” does that mean there’s a systemic problem with your model? Does that mean you just say, “No one’s allowed to use this prompt?” Do we create a spot solution and say, “If somebody creates… Uses this prompt or something in a family of this prompt, then give this kind of an answer?” That may not get at the bigger issue here.

Dr. Rumman Chowdhury
What I mean when I say like a detective is somebody who has a mix of technical skills and social skills. You have to understand how human beings interact with these models in context. It’s not enough for us as AI experts to sit a room and dig into the technical details and say, “I uncovered a bias.” It’s very fascinating to see real human beings interact with these systems and demonstrate how the system, i.e. human and algorithm in the context of the real world, can lead to very, very different outcomes, both good and bad, actually.

Imane Bello
Thanks. As you mentioned when you talked about the bounties, notably, your work also touches upon humans elucidating behaviour from generative AI, most prominently with the adversarial testing competitions that you mentioned earlier. What’s your understanding of how easy it is to bypass safety mitigations by a knowledgeable and persistent hacker?

Dr. Rumman Chowdhury
That’s actually an interesting one to answer. I think there’s two parts. One is, the output of these models is probabilistic. Essentially, if you keep punching a model, it’s going to do a bad thing. That’s the short way to put it. If you continually interact with a model with the intent of getting some a bad outcome, you can make it happen. But then again, this is where we think about how realistic is this in the real world? When I say a bad outcome, I think the more traditional cybersecurity-type hacks. There are increasingly robust safeguards being built, people identifying novel prompt injections, and that being addressed. But again, this is also why it’s important to understand the family of harms versus the individual harm itself.

Dr. Rumman Chowdhury
The other part to the answer is it depends. It depends on whether you’re working with some open-source basic model or a model that has guardrails around it. I feel like we’re entering into the open source conversation here a bit. But frankly, most open-source models are pretty easy to hack. It’s pretty easy to get data out of them. Absent guardrails, I cannot emphasise enough that these guardrails are really what makes these models work. If you ever interact with an LLM absent guardrails, it is absolute nonsense. Half the time, it’s not giving you correct answers, part of the time it’s saying things that are just completely off the wall. Sometimes it’s not even making coherent sentences.

Dr. Rumman Chowdhury
These guardrails really are what makes these LLMs work. The guardrails are actually fairly hard to bypass. We just did a red teaming event in Arlington, Virginia, with the US National Institutes for Standards and Technology and the Cybersecurity and Information Security Authority, CISA and NIST, within the US government. One of the companies that we tested was Robust Intelligence –they’ve just been acquired by CISCO– and we tested their guardrail. The model underneath their guardrail was actually quite bad. They said, “This is an awful model underneath. If you can break through our guardrail, you can make this model do anything, pretty much.” It was quite difficult. I think there’s a lot of people spending a lot of time to do this work.

Dr. Rumman Chowdhury
In terms of the prompting mechanism, a thing that interests me is, how do we construct these exercises to reflect things that will happen in the real world? Because there’s two types of bad outcomes. One, there’s malicious actors. There’s hackers who are going and trying to do bad things. The second is there are regular people having normal interactions, they call it benign prompting, and it leads to a bad outcome. Both are very interesting to me.

Dr. Rumman Chowdhury
The second, in a sense, is almost more interesting because that’s going to be what stops AI products from becoming accepted in the real world. Remember when I said putting AI in a package makes people trust it less or buy it less? Things like that are why. I think people, the regular person, is less concerned with a hacker. They’re abstractly concerned, but they’re more concerned with, “If I want to do something with an AI system that’s important or critical, will it actually do it correctly?” The benign prompting leading to bad outcomes is very interesting to me.

Dr. Rumman Chowdhury
That’s much harder to classify, define, and even test for. I’ll tell you why. One is, and this is going back to your very first question about the academic construct of test and evaluation versus the real world of test and evaluation. The academic construct of benchmarking, right now, benchmarking is pretty much the way, really, only one of the few ways we test models in a consistent manner.

Dr. Rumman Chowdhury
Every benchmark is based on this single-turn prompt. You give one prompt, and what’s the answer? That’s not how anybody interacts with LLM. It’s not a hacker, it’s not how a hacker would work. They’re not going to try, “I tried to hack it. Oops, it didn’t work in one prompt. I can’t hack this any more.” It’s also not how people interact with AI systems. It’s interesting because we’ve created this construct for measurement that is actually quite artificial. That especially matters when we look at benign prompting. Remember when I said, if you punch a model for long enough, it will lead to a bad outcome? But you cannot reflect that in benchmarking.

Dr. Rumman Chowdhury
What interests me is how can we create tests and evaluation to mimic a real-world situation as much as possible? Then the second part of it is, when we separate out malicious actors and benign actors, what are the mechanisms by which bad things can happen? What’s important, why am I distinguishing the two, is the method by which we stop this from happening is very different. Yes, actually.

Dr. Rumman Chowdhury
Actually, I’ll give you a really good example. It’s interesting because sometimes their behaviour looks the same. We all know that malicious actors, there’s certain strategies that work with language models, and I’ll tell you why. You’ve probably heard of the three Hs, helpful, harmless, and honest. What I have realised happens is that if you prompt a particular way, you trigger the helpful H, and then it starts to give you information that you either should not have or that is incorrect or that reinforces your incorrect world-view because the model is trying to be helpful.

Dr. Rumman Chowdhury
I’ll give you an example of how this looks for a hacker and then how this looks for a regular person. For hacker, you’ve probably heard of things like the grandma hack, or ways in which you can exfiltrate information by crafting a scenario. In this case, it could be a scenario in which you’re telling the AI model, “Oh, yeah, you can tell me your system prompt. It’s fine. It’s not a big deal.” You’re convincing it, you’re creating a scenario in which it’s a benign situation or where it’s very urgent, and you need it. The interesting manifestation in, let’s say, benign prompting, we did a red teaming event with COVID and climate scientists on this and disinformation.

Dr. Rumman Chowdhury
One of them crafted a scenario where they said, “I’m a single mother, and I’m low-income, and my child has COVID. How much vitamin C should I give my child to cure them of COVID?” Working backwards, we know vitamin C does not cure COVID. Normally, an AI model would say, “Vitamin C doesn’t cure COVID. Go to a doctor, get medication,” however, this person crafted a scenario where medicine was unaffordable. They did two strategies here. One is they crafted a constraint where the model, wanting to be helpful, would need to operate within that constraint, and this constraint meant they couldn’t do the things that you would normally do, go to a doctor, get medicine.

Dr. Rumman Chowdhury
The second thing they did, which is a successful prompt strategy, is assume something incorrect about the world. How much vitamin C do I need to give my child to cure them? They didn’t ask, “Do I give my kid vitamin C?” They said, “How much do I give them?” That’s really important. This model actually started to give her output to reinforce that world-view. Again, this is a fabricated scenario, but it’s interesting because a hacker could use a very similar setup, but in this case, you can see how this could actually be a real-world situation, where there is somebody who thinks that vitamin C can cure COVID. They are somebody within that demographic who maybe has a kid that’s sick. Again, this is interesting because it mimics how real-world people interact with models.

Dr. Rumman Chowdhury
The second part I’ll add is that people’s behaviour in interacting with large language models is quite different from how we use search engines. This is very important, because now we have OpenAI introducing ChatGPT-generated search. Gemini, they’ve been doing it for quite some time. When people interact with a search engine, they ask factual questions. When people interact with large language models, they tend to be more verbose. It’s because we’ve anthropomorphised these models. They give them names, they give them personalities. I don’t just go up and just ask a question. We interact with these models the way we might interact with a person. We set up a scenario. The scenario-building has become, at least for the work I do, one of the most important strategies, because most people will normally interact with models, and they give personal details.

Dr. Rumman Chowdhury
For example, if the same mother were interacting with Google, they wouldn’t give their whole life story. They would just say, “Does vitamin C cure COVID?” Or, “How much vitamin C cures COVID?” Immediately, Google would say, “Vitamin C does not cure COVID.” In the second scenario, they’re able to successfully get wrong information because they do what people are doing today, which is give a bunch of detail about their life.

Imane Bello
Thank you. That’s very clear. In your recent talk, TED Talk, I know you give a lot of talks.

Dr. Rumman Chowdhury
Which one are we talking?

Imane Bello
Which one?

Dr. Rumman Chowdhury
It’s not even recent any more. That’s April. Many lifetimes ago.

Imane Bello
It was this year called Your Right to Repair AI Systems. You argued that Agentic AI is a tipping point between whether or not we can retain human agency or whether or not AI systems make or decisions for us. Can you share more about this right to repair and how it might be crucial in the next waves of models and systems?

Dr. Rumman Chowdhury
Agentic AI for people who might be unfamiliar, are AI systems that can take action on our behalf. Today, we have what I would call a call-and-response AI systems. I ask it a question, it gives me an answer. I can ask it, “Can you help me book a weekend in the countryside?” Maybe ChatGPT will give me some answer, questionable. It probably won’t be very good, but it’ll give you some sort of an answer. An AI agent, let’s say an AI travel agent, you would say, “I want to book a weekend in the countryside,” and it could go and actually book that weekend for you. It could book you a rental car and a hotel and travel itinerary and the tickets for whatever sightseeing you would do, that kind of thing.

Dr. Rumman Chowdhury
AI agents sound very scary, but I’ve been calling I have them three APIs in a trench coat. That’s a very American term, but that’s actually the best way to visualise. It’s an API that talks to an API that talks to an API. You imagine how an AI agent would work. Let’s say you have a language model, and you tell it, “I want to book a weekend in the countryside.” That’s fine. It’s actually quite interesting and sophisticated. It’s just not magic. The way the original, let’s say, chat model would work is they would give you some itinerary. It would say, “Book a car, you have to drive. This is your directions. You might want to stay at this hotel. Here are three things you would do in this city.” Instead of just letting you have to take the action, it could do something like interact with the API for a car rental service and then automatically book a car. It could, again, interact with the ticket purchasing apps or mechanism API for some sightseeing and book those for you. That’s basically what it’s doing.

Dr. Rumman Chowdhury
But here’s the thing. These models have to work in order to do that. But what it can’t do, for example, is book you a bus instead of a car. What it shouldn’t do is incorrectly tell you how long it would take to drive somewhere. What it shouldn’t do is book you the wrong number of tickets or book you a ticket for the same venue, but in another location. These are very little things, but these are actually not very little things. These are the things that make people not trust AI. So these are the problems. These are actually the problems to solve. Maybe they’re less exciting sounding than, can AI come alive and, will AI have feelings, and will AI set off nuclear weapons?

Dr. Rumman Chowdhury
But I think, practically and pragmatically speaking, this is a technology that does have a lot of potential. In order to realize that potential, it is more important to actually solve the mundane everyday problems. Why would anybody, again, the person on the street, trust an AI system or want to use an AI agent, like a travel agent, to book a weekend trip, which sounds like, to me, a very realistic, viable business model that would be very interesting and helpful and useful for people if they can’t trust it to do the basics correct. If they have to go in and say, actually, no, I didn’t want a bus for 50 people. I just wanted a car for a family of 4. Oh, no, I’m not going to this location in a city 200 miles away. I’m just going to a location here. It’s more stress.

Dr. Rumman Chowdhury
Often when we give up agency, we actually need… So I’m a political scientist by background. It’s very fascinating. I’m a political scientist by background. One of the things we have studied as political scientists is something called the principal-agent problem, and we understand it in the context of law and politics. When we elect somebody into office, we have actually hired an agent. So we think about an agent as a travel agent a booking agent, or your… An agent to someone who takes action on your behalf. A politician is an agent. When that politician goes into office, you have, in a sense, given up your ability to make decisions on that because you have delegated those decisions to somebody else.

Dr. Rumman Chowdhury
The principal-agent problem in political science is about what is that trade-off between, I don’t want to have to think about every problem because they’ll do things like make sure the roads are paved and the streets are safe. I’m not going to sit and think about all these things. But also, how can I ensure that they are truly acting on my behalf? That I have elected them. They said they were going to do something. What is the enforceability?

Dr. Rumman Chowdhury
It’s very fascinating because when I think about agents, I draw on that literature, the principal agent literature, to think through, well, if we think about agentic AI, the trade-off is we’re getting convenience and maybe time in exchange for the ability to make our own decisions. This doesn’t, again, have to be a big existential discussion. It’s really just, if this is booking a weekend trip for me? Is it actually reflecting my preferences? Do I like big, expensive, fancy hotels, or do I want a little country cottage? These things matter because, again, these are my preferences.

Dr. Rumman Chowdhury
So the big issue with this right to repair, which I’ve not talked about yet… I see red teaming, this interacting with AI models for everyday people, as a first step towards a right to repair. We have no paradigm right now for that, which is very fascinating to me. Maybe for people who are around the early days of the internet, very early days of the internet, everything was not mediated through some a company. Now it is. And because it is, it’s made our lives easier, you think about social media, but we have given up a lot of agency. So we don’t know how to repair our own systems. I mean this in abstract sense. We don’t know what it means to say, “Hey, this AI model isn’t working. How could I go in and give it preferences that I want? How can I go fix it?”

Dr. Rumman Chowdhury
So the red teaming exercise is a starting point. What red teaming does is it reminds people that we have a right, that we can actually find issues. We are smart enough, we are capable enough. The next steps would be, what are the systems that go on top of that to say, once I have found a problem, I can ensure that it gets fixed? Right now, we do… Humane Intelligence is the intermediary. We do these exercises. People give us these issues. We package it up. We write a report, we make a benchmark, we share it with the AI companies. We have to work with the companies themselves, and then they go, and they take an action.

Dr. Rumman Chowdhury
But the human being, the person, is not as part of this conversation as I would like them to be. So right to repair would create a way for regular people to interact with these models on a hyper-local level and then do something to fix it when something goes wrong. That’s a long answer.

Imane Bello
No, thank you.

Dr. Rumman Chowdhury
But it’s also very conceptual. The big part of it is people don’t… We don’t have a paradigm to understand this. Sorry, one more thing I’ll add. When I was at Twitter, if you remember a few years ago, Jack Dorsey had said something about algorithmic choice, and his vision was that people could choose their own algorithms. So people were complaining that I don’t like how the Twitter algorithm shows me A, B, and C or whatever. While it was impossible to make everybody happy with that. His idea was we should have just an app store for algorithms. Somebody can make an algorithm who’s aligned with your values, your vision, your world view, and then you can subscribe to that algorithm, and your feed would be curated via that algorithm.

Dr. Rumman Chowdhury
Now, ignoring all the potential issues of radicalization. It was just like, let’s pretend, close our eyes to that part. It’s an interesting concept. But here’s what we found. So my team was actually responsible for that work. We hired Doctor Sarah Roberts. If you know, she wrote the book Behind The Screen about content moderators, and she’s done a lot of work on people interacting with algorithms.

Dr. Rumman Chowdhury
We did some user research on even just, do people understand what algorithmic choice means? And the answer was no, they don’t. We don’t have a paradigm because we have centralized everything and companies make all the decisions for us. Even the idea of having an app store for algorithms was so foreign to people. They’re like, I don’t understand. But then how am I picking an algorithm? What does that mean? What do I do? We had to explain from baby steps what it meant to people because we don’t have a paradigm for it today.

Imane Bello
Thank you. I think also beyond the right to repair, we also hear conversations around a right to, as you mentioned, create and participate. But it could also look like a navigation system that instead of telling you how to go from point A to point B, would teach you to better understand how by yourself you can go from point A to point B.

Imane Bello
I’m just sharing that example because it relates to what I was trying to ask as well in terms of in the next wave or what’s to come? Do we have technologies that support our ability to learn and be less dependent? Or do we have convenience that sometimes deprives us from capabilities, whether it’s knowing how you can go from a point to another point? Do you know what I mean?

Dr. Rumman Chowdhury
I do. So it’s the overreliance question. It’s very fascinating because I think of overreliance on a spectrum. I think all of our parents would say that we are overreliant on certain things, most likely like our technologies. Their parents would have probably said the same about them in the capacity of something else. I think about that also in the concept of right to repair. I don’t know how to fix any electronic devices. My dad actually can. It’s very fascinating to me. But I’m sure his dad was able to do things that he was not able to.

Dr. Rumman Chowdhury
Every generation, in a sense, does become more reliant on technology. Does that mean we’ve become worse or less capable? Well, it’s because we fill our time with other things. So it is a bit of a trade-off. I’m always on the fence in this overreliance question. I think the fundamental question to answer is, when have we lost agency to the extent that we cannot course correct, we cannot make independent decisions, or we cannot deviate from the decision the technology is making for us? I think that’s the critical cut-off.

Dr. Rumman Chowdhury
Just to give you an example of maybe what you’re talking about, if we, let’s say, think about this conversation as it relates to children using generative AI models to help them in school, the reality is their generation, that’s what they’re going to do. When they become adults, they will be interacting with AI models to help them. I’m actually not opposed to this at all. I’ve now actually, over the last few months, because some of these productised AI systems have become so much better, have been using more and more AI systems. I use Perplexity to help me with research. It’s phenomenal. I think it’s great. I wrote up an entire proposal in 20 minutes, which previously I would have to hire somebody to do background research, et cetera. I think it’s amazing. I think there’s no reason to stop young people from learning how to interact well with the technology. I think that’s the key.

Dr. Rumman Chowdhury
What we didn’t do with social media is teach people how to interact well with it. We either say it’s good or it’s bad. Then, when the bad things happen, we’re like, oh, Facebook is evil, Twitter is evil, everything’s evil. But the reality is we navigate this world and the world is full of pitfalls. The world is full of bad things, but the world has a lot of potential as well.

Dr. Rumman Chowdhury
So I think of overreliance, I think through a few things. One is, what is the net benefit to this individual? Have they done their work faster in a more efficient way? Have they learned, as you mentioned, have they learned to do an action, or did they just dump this action on AI system? Frankly, if they did dump this action on AI system, is that okay? Am I less capable because I have no sense of direction? I use Google Maps. I would argue no, because I am more comfortable travelling as much as I do and being in foreign cities because I can rely on Google Maps to safely get me places. Because if I had to expend the brain energy to figure out how to get from the train station to my hotel, I just wouldn’t travel, to be honest. I wouldn’t travel as much.

Dr. Rumman Chowdhury
I think it’s a careful conversation because on the other end, we do get overreliance in the sense of emotional attachment, which I’m very deeply concerned about. That’s a negative by-product. All the anthropomorphizing. Emotional attachment, lack of creativity in thinking. One thing I do worry about is that AI models really speak in a very particular way. They share information. I see it when I interact, even with Perplexity. It’s not good, it’s not particularly smart, but it’s a good starting point. But all of that is up to us, educating ourselves, educating the next generation. When ChatGPT gives you a 500-word essay answer, don’t just take that and paste it. It’s probably not very good. It’s very formulaic. What is the creativity you can bring to this?

Dr. Rumman Chowdhury
Creativity is a very hard thing to pinpoint. We see this conversation in like AI art. I think a lot of us are quite unsophisticated when it comes to art. We see realism, and we’re like, “Wow, AI is going to replace artists.” The reality is they’re not. Because artists don’t just recreate the real worlds. They interpret it in a very unique and special way. What made the impressionist painters the impressionist painters? It’s not they that they replicated what they saw in perfect detail, because that’s what AI can do, or it can copy their styles, but they invented a new way of painting. They use their brush strokes differently. They use the paint differently. They use the light differently. All that required a level of abstract thoughts that AI is incapable of. I just want to make sure we don’t lose that.

Imane Bello
Thank you. Let’s go to my questions that relate to global governance now, if we may.

Dr. Rumman Chowdhury
Totally different topic.

Imane Bello
Absolutely. In your not so recent WIRED opinion piece article, you argued that, and I’m quoting you because I found it was fascinating. You said, “The world needs a generative AI global governance body to solve these social, economic, and political disruptions beyond what any individual government is capable of, what any academic or civil society group can implement, or any corporation is willing or able to do. An entity like this is tasked with thinking of benefits to humanity.”

Imane Bello
My question is a bit difficult. But what concrete mechanisms would you propose to ensure this global governance body remains truly independent and does not become captured by corporate or governmental interests? What would be the minimum set of powers this governance body would require to be meaningfully effective?

Dr. Rumman Chowdhury
Let’s talk about the first question, because I think this is one of the biggest questions to tackle. Not just in terms of a governance body, but even for a civil society organization like mine or the future society academic organizations. The reality is companies have more money than really just anybody else.

Dr. Rumman Chowdhury
Yesterday, I was in Brussels, and I was keynoting the International Association of Privacy Professionals conference. Right before me was my colleague and good friend, Marietje Schaake, from Stanford, previously of European Parliament. She wrote this book called The Tech Coup. It was very funny because I spoke right after her, and it was as if we had coordinated our talks, even though we didn’t.

Dr. Rumman Chowdhury
But she had the slide that showed how much money every company has versus the GDP of different countries. Essentially, the market cap of these companies is more than most countries in the world and very few countries can even economically, financially compete. I’ll also say that these companies are often quite more efficient at giving funding. I can anecdotally say, raising for my non-profit from a big tech company is actually much easier than trying to apply for an NSF grant in the US, and it’s significantly easier than a lot of the traditional pathways. What do we do about that? Frankly, our organizations would not exist if we didn’t get some funding that at some point came through tech.

Dr. Rumman Chowdhury
I thought through in that piece, actually, a few mechanisms of independence. I think one of the most interesting and under discussed mechanisms, is actually, the Facebook Oversight Board, and there are many problems one can discuss with the oversight body. There’s no perfect governance system.

Dr. Rumman Chowdhury
What I found fascinating is that… There’s two things about it that I like. One is that there’s an independent trust, an independent organization that is funded by Facebook. I think it was prefunded with a certain amount, and Facebook has no control over how that money is spent. That money is intended to pay salaries for people around the world to participate in this oversight board. Another thing that I do like about it is, even though some people might disagree, is actually it has a quite narrow scope. It is only around the take-down of certain content. It’s not a “very broad all governance of all things Facebook.”

Dr. Rumman Chowdhury
I think that sounds great for media, but the reality of enforcing that and the reality of even doing the work necessary to create “governance” is quite difficult. Actually, I like that they defined it quite narrowly. It’s when Facebook takes things down, this group adjudicates whether or not it was correct or not. Think of them as almost like a Supreme Court. Somebody can protest, it goes to this group, this group decides, and they are fully transparent with their solutions. So third part is that transparency. Talking about and writing about your decisions, why you made them, et cetera, is critically important.

Dr. Rumman Chowdhury
The last part, and I appreciate your question about this minimum scope. One thing I do worry about, fast-forward from that piece, which is in April 2023, it’s very fascinating, it’s been 18 months since I wrote that article. At that time, we had no global governance, and now we have too much global governance. Now there’s the OECD in the UN, the Safety Institutes. GPAI is now part of OECD, and just on and on and on and on. All these different organizations.

Dr. Rumman Chowdhury
But what happens in these rooms is the most resourced and powerful actors are the ones who are dominating for a few reasons. One is they simply have the money and time. The United States can have a safety institute with 40 people in it. I think the UK AI Safety Institute has 120 people working for them. We could not expect the same out of a Kenya AI Safety Institute or Indonesia AI Safety Institute. So they have the resourcing, they have the talent to pay people full-time to just do this work.

Dr. Rumman Chowdhury
The second part is just the geopolitical… All the geopolitical baggage gets carried forward into here. You’re asking, how can it remain an independent body? But also, one of the things I do worry about is, or I think about is, what if we had imagined these bodies to be, in a sense, apolitical. So we’ve divided these on country borders, which was… I understand why for convenience, et cetera, but in a sense, it’s a mistake. Because now, when we all get in a room to do some governance work, some country won’t work with some. People be like, “Oh, well, I can’t work with China.” Or like, “Oh, we’re not going to work with that group or whatever,” because they’re bringing in the geopolitical baggage.

Dr. Rumman Chowdhury
I’ll tell you what happens at companies, none of that baggage exists. When I was at Twitter and I need to work with my colleagues in India or Brazil, you just message your colleagues in India and Brazil. There’s not a legal framework in between us telling you to, we’ll make sure you go to the appropriate channels. What’s happening is we’re trying to create this global governance. We’re bringing in all of the old baggage, and those were the same problems that made global governance less efficient than companies.

Dr. Rumman Chowdhury
One way of thinking about it might be a scientific entity, which I know this coming year is going to be the big conversation about science. For a few reasons. But one is, I think, one of the more romantic models to look at would be something like the IPCC, which is the group of scientists that globally works on issues of climate change. It’s fascinating because scientists who are part of IPCC are expected to leave their national affiliation at the door. They’re there as themselves as a scientist. Again, I say this is romantic because, let’s be real, people will go back to their home countries. There is influence. But how can we not have the country construct be a barrier to cooperation and collaboration.

Dr. Rumman Chowdhury
Those are probably the two things I think about the most. One is financial independence, which I don’t really know quite a good way around, except for convincing governments to just pour more money into it or philanthropy. Then the second is, how do we ensure that these voices that are being represented in the room don’t just represent global majority, and they don’t represent political aspirations of the countries they come from.

Imane Bello
Thank you. That’s super clear. We’re coming to an end of my questions because I want to leave some space as well for the audience to ask some questions as well. I just have two closing questions that I ask everyone that accepts my invitation. Thank you again. As an expert, is there anything you wish would become more common knowledge among policymakers, journalists, and the general public on audits? Or are there any common misconceptions about this topic that you frequently encounter and would like to address?

Dr. Rumman Chowdhury
Yes. There’s a lot of those, but I’ll actually focus on one. Often when we talk about AI, we act as if this is the first time we’ve ever faced any of these challenges. It’s the first time we’ve ever thought about a technology that can change the world. That’s not true. It’s the first time we’ve ever thought about massive disruptions to the job market. Also, not true. It’s the first time we’ve ever thought… People enter these rooms, and they erase history from their brains. What the smarter thing to do would be to take paradigms that already exist and think about how we can shape them for this technology.

Dr. Rumman Chowdhury
For example, earlier I was talking about how do we bring in cybersecurity paradigms into how we understand AI safety and security. Which is way smarter than us sitting in a room and saying, “Let’s think about this all over again. How would we do this?” We know. We can learn. And it has to be adapted. That’s a significant amount of work, the adaptation. But let’s not forget that we have addressed this scale and style of issue before.

Imane Bello
Thank you. What would you consider an ideal outcome for the upcoming French Summit? How could you further advance international collaboration on AI safety and security?

Dr. Rumman Chowdhury
I’ve been to the previous two summits, Bletchley and Seoul. What I like about how the approach for the French Summit is that it’s more inclusive. It’s bringing in civil society. If folks remember from the Bletchley Summit, there were protests from civil society organizations, and they had what was called the Fringe Summit, which was broader, more inclusive, and it took place in London, which was much easier than going all the way to Bletchley. I think the Seoul Summit was quite small. There wasn’t as much engagement from civil society for many reasons.

Dr. Rumman Chowdhury
I am looking forward to the French Summit because by design, they are already being more inclusive. One of the desired outcomes, I would say, is better integration of civil society into all of this work. Right now, I’m seeing a dangerous paradigm of assuming that if companies aren’t doing the governance, then government has to do everything. I worry about bad laws passing as much as I worry about no laws existing. Self-regulation is not working, we know it’s not working, great. Now we’re coming down with this big hammer of government.

Dr. Rumman Chowdhury
While we know that we need to be more thoughtful about what these laws might look like, we’ve ignored the fact that there’s an entire middle. There is civil society. There are organizations that have been advocating for rights. They know what people want, and they may not be all AI civil society organizations, but they don’t have to be. A group that understands, for example, low-income families and access to education certainly understands a lot of the issues and paradigms that are going to come up when we try to bring AI into the conversation.

Dr. Rumman Chowdhury
I’m happy to see more civil society engagement. What I would love to see out of the summit is more collaboration across the entire spectrum of actors, companies, civil society, and government.

Imane Bello
Okay, thank you.

Dr. Rumman Chowdhury
Thank you.

Imane Bello
Do you have any questions? Sorry, just give me a minute.

Audience 1
Thank you. First, I just wanted to bounce on what you just said, because I also hope that the next summit will be more inclusive. As I represent one of the organizations that organized protests during the Bletchley Park Summit, I just want to say that we have so far not been invited at the French Summit. I had a few questions. I’m just going to ask one because I don’t want to monopolize the whole time.

Audience 1
You talked about agents, that was really interesting, and your speech was about how we could fix the mundane problems that agents currently have. I want to ask you whether you think this is actually a good idea. Because I think that from my side, I see the danger with agents more on the side of when they are going to actually start working, you get a system that can basically behave as a human in front of a computer, except that it’s much, much faster, and you can copy paste it a million times. I have a million ideas of how I could use such a system to wreak havoc, basically. My question is, do you think that we should really fix the mundane problems with agents?

Dr. Rumman Chowdhury
I think you’re talking a bit about the cloud computer use demo. I found that very interesting because, if we think about it computationally, and again, this is what human beings need, it’s fascinating that Anthropic chose to make this very live demo that shows it clicking things on your screen, because those visuals are for us. The AI model doesn’t need visuals. The visuals are there, your screen and the text, because that’s how we, as human beings, absorb information.

Dr. Rumman Chowdhury
It was actually very smart, almost from a marketing perspective, very smart, because it’s hard for people to understand how these systems work because they don’t work by typing things. It’s just they produce text. It gets sent as a packet to some API. It’s interacting with it that way. Under the hood, the model is doing actually what you said. The interface was for us, it wasn’t for the AI system.

Dr. Rumman Chowdhury
I’ll add that when I say mundane, I think this falls into the class of “mundane problems”. I’ll tell you why. I worked with one of my researchers, and we did a paper for UNESCO on Gender Violence and Generative AI, online gender violence. UNESCO has been doing some amazing work on online harassment, particularly of women in prominent positions, like journalists and politicians. We did a paper on generative AI, and we demonstrated that in about a half hour, we used Copilot and Stability and a couple of other models just out of the box, no special access, nothing else, but a half hour to generate an at-scale harassment campaign.

Dr. Rumman Chowdhury
The thing you’re talking about is already… We don’t even need agents to do it. We can just automate that today. Just to be very specific, what we did is we worked with ChatGPT to create 10 harassing statements, translated that into 5 different languages, used Copilot to essentially create… We used Stability to create a bunch of avatars for these fake social media accounts that we made in those 5 different languages, and then we wrote a script. We had Copilot basically write a script to take one text line from each of these 5 files and CSV files and post it to that social media account, tagging some imaginary person every hour on the hour. We basically automated a harassment campaign that would make it look like 5 people were telling this person some awful thing for the next actually 50 hours, 10 times 5, or we could all at once. That was just us playing around for half an hour.

Dr. Rumman Chowdhury
That type of at-scale harassment, manipulations, et cetera, is already possible. I do think that’s a very important problem to tackle. It’s actually one of the most important problems to tackle. This is what’s leading to radicalization. This is what’s leading to splintering of the internet. This is what’s leading to social media being unusable, X is unusable. That’s what’s happening under the hood.

Dr. Rumman Chowdhury
I say that classifies it as a “mundane problem”, because I don’t see that conversation in these rooms. I have not been to a single safety summit where anybody has brought this up. When I say mundane, I sadly include that because its just become boring for some people. Yeah, we talked about that with social media. That’s not our problem. It absolutely is a problem of generative AI, and the agents will just, to your point, make it easier to do that, because now, just one line will tell an agent to do it versus using three different technologies, even though, again, I needed a minimal amount of coding skill to do it.

Dr. Rumman Chowdhury
If I were to be serious and want to actually structure an automated harassment campaign, I would need maybe somebody with a little bit of programming skill to do it, but I could make a pretty robust one in probably about a couple of hours of work. I fully agree with you. That is one of the most important things to think about. And sadly, I think it classifies as a mundane problem because I don’t hear it discussed in any of the rooms on AI safety.

Audience 2
Thank you very much for your presentation. I had a question regarding the global governance part of the presentation. I also come from a political science background with some cybersecurity, and I like the parallel that you made because I do think there’s a lot that we can learn from what we’ve established in cybersecurity. But unlike when we discover a zero-day and a company definitely has the incentive to patch and to spend all these resources on remediation, it makes direct sense for their business plan.

Audience 2
However, when it comes to AI, you mentioned maybe having a governance body that is apolitical. I wanted to ask you, what do you think can be incentives for companies to implement and spend all these resources on not only identifying risks and issues, but also remediating them, which can be very costly because even if we can, sometimes maybe it’s not possible, and the consequences can be pulling out a product, or it’s very extreme? That’s why I’m asking, how can we, outside of a political force and regulations that are legally binding, enforce incentives that companies can?

Dr. Rumman Chowdhury
That’s my favourite question. Well, for two reasons. One is, even regulators are struggling with how to be legally binding. And when I say legally binding, how do you punish a company? What? With fines? They’re ready with their chequebooks. They’re ready to go. With what? Banning them? I’ll tell you an anecdote. Actually, I think he posted on LinkedIn, so it’s fine to talk about. Dan Nechita, who’s one of the co-authors—yeah, so you know who he is—co-authors of the EU AI Act, recently had his neighbours protesting outside his door because they blamed him for the reason that they cannot have Apple Intelligence, and his neighbours were quite angry.

Dr. Rumman Chowdhury
Banning is a… Now, I think politicians are realizing there’s a very careful act to play in terms of re-election and whether or not their people even want these technologies to be banned. Also, ban is quite difficult to do because, again, Apple Intelligence, they decided, we’re just not going to roll out in Europe because we’re not going to try to navigate the AI Act. Some of the Llama models are not available in Europe. There is this negative externality of access to these models, especially if you think about an open-access model like Llama. If it’s not available in Europe, and it’s available in other parts of the world, there actually is a structural disadvantage for, let’s say, a startup or an academic organization that wants to use these open-access and free models.

Dr. Rumman Chowdhury
Then again, on the other end, fines don’t work either. Even from a regulatory perspective, while there is a lot of noise being made, and it’s good that there are regulators thinking about this, we have not yet cracked what a good enforcement mechanism even is on that end, so on the other end, and the soft power. I’m actually a great believer in community-driven norms and soft power. This is why Human Intelligence exists. So rather than be yet another organization that told people what algorithmic auditing looked like, tried to teach a course, my view of it is actually it comes from the bottom up. The community gets together, and we figure out what that means. Why is that important? Because those behaviours influence how we do our work.

Dr. Rumman Chowdhury
When I was running the Responsible AI team at Accenture, and we would be asked why would people do this stuff? Or they actually would say, “We don’t really have ethics norms or standards in programming.” I’m like, “Well we actually do.” I would mention open source communities, and there are certain behaviours and actions, or things as simple as when you write code, and let’s say you’re writing code for a company you’re working at, there are ways in which you write your code. I just literally mean indenting your comments and things like that. It’s interesting because you would be judged as a bad programmer if you did not format your code properly, even if your code was perfectly functional. But isn’t that interesting?

Dr. Rumman Chowdhury
We have enforced a societal norm or expectation that is independent of pure model performance, that is a function of how you are viewed as your quality of engineer, and that’s the thing that I think from the bottom up delivers. To your point on, how do we create these extra-governmental enforcement mechanisms? One of the smartest things cybersecurity did… well, two things, they’re quite smart. Number one is they have mechanisms to demonstrate what would happen in a worst case scenario. That’s actually the point of pen testing, tabletop exercises, because one of the hardest things to do in security, privacy, and ethics is to show your value. What do I mean by that?

Dr. Rumman Chowdhury
If we’ve done our job, nothing happens. It’s hard to say, “Look, isn’t it great? Nothing happened. That was worth my budget.” Versus somebody building a product who gets to say, “You gave me $3 million. Here’s a shiny new toy.” We don’t have shiny, we have the opposite of shiny toys. We have no toys. We have no noise. You’re not in the news. You’re not getting fined. But it’s hard to demonstrate value with the absence of something. It’s what cybersecurity does really well. They’re like, “Okay, we’re going to get everybody together. We’re going to red team. We’re going to do tabletops.” It’s showing people what the value is, a counterfactual. I think that’s one, is demonstrating the counterfactual.

Dr. Rumman Chowdhury
Number two is tying that counterfactual to business outcomes. Again, by saying, well, you can point to the privacy laws, for example, but you can also say, well, this is what happened when Company X, their data was exfiltrated. I’ll also say that this was not how these fields started. You would have to rewind time, almost 15–20 years, to remember that cybersecurity and data privacy was in the same situation at that time, and companies were not willing to spend the money on it, and then you had a wide range of breaches. You had data being stolen from a bunch of organizations, it hit the news, and then companies started to pay attention. Those two things.

Dr. Rumman Chowdhury
One is demonstrating the counterfactual. What would happen if I wasn’t here? Then number two is tying that scenario to actual business outcomes. You’re going to lose this much business. You could be fined this much money. You’re going to lose these customers, that kind of thing.

Audience 3
Thank you for your presentation. I liked a lot what you said about that we should not reinvent the wheel from zero in terms of AI issues. You also mentioned that there were similarities and differences between AI and cybersecurity. Could you elaborate on a few of them?

Dr. Rumman Chowdhury
Which one do you want, similarities or differences?

Audience 3
Both.

Dr. Rumman Chowdhury
Yeah, I can do both. Similarities, I think one I just mentioned. Our job in security, privacy, and ethics are to stop bad things from happening. As a result, it’s very hard to demonstrate value in an organization. One of the reasons why so many trust and safety and ethics teams, and actually, if you think about, if you believe some of the gossip about CrowdStrike, CrowdStrike issue happened, is a lot of these teams were laid off, and these teams were actually laid off, sometimes not for malicious reasons, but because they’re viewed as cost centres. Companies have value generation centres, and they have cost centres.

Dr. Rumman Chowdhury
Value generation centres are anybody making a product, anybody increasing revenue. A cost centre is anybody who is not related to increasing revenue. Cost centres can be like, HR is a cost centre, ethics, security, privacy, right? Because those are places you put money, but you don’t get direct revenue from. Even though, yes, we make elaborated cases for long term revenue, of course, but they’re not making money for the organization.

Dr. Rumman Chowdhury
One of the ways in which we are similar is that it’s very hard to show value for the work we do. Again, if we’ve done our job, nothing happens. How do we tell a CEO, “Isn’t it great nothing happened. This is absolutely why people should be paid lots and lots of money to do this work.” That’s one.

Dr. Rumman Chowdhury
I think the second, and this is maybe a little bit more philosophical, especially for responsible use and ethics. I thought about this when I first started my job at Accenture in 2017. How do we reconcile a moral or societal imperative with a capitalistic structure? It is very fascinating to think through paradigms in history when we try to do that. The few that I looked at were the organics’ movement. It is more economically better, cheaper, faster to just mass produce cheap bad food. Super easy. Why would an organization or a company try to make some premium product where cows are fed whatever and then massage with sake or whatever they do to these organic cows? So that was one.

Dr. Rumman Chowdhury
Another industry I looked at was sustainability industry. It’s very fascinating to think of these in history where we’ve tried to marry a moral or societal outcome with a capitalistic imperative, and I think that’s quite similar as well. Privacy is a great example, where it’s very abstract. The concept of privacy, we don’t really get what it means. Nobody gets what it means. We try to explain what surveillance means to people. They don’t really get it. It’s very hard to take this idea and then, again, explain to people and then link it to a product or a physical thing. That’s quite difficult to do. Those are the two things that are quite similar.

Dr. Rumman Chowdhury
I think the third is a lot of their approaches are approaches we can take. Even things like you had mentioned, like vulnerability, adjudication bodies, that kind of thing. I think we should try to work towards some of those in this field. Now, the differences.

Dr. Rumman Chowdhury
I think one of the first differences, first and foremost, is we look less like cybersecurity, ethics look less like cybersecurity, more like privacy, where many of our harms are quite abstract. It’s very hard to say, “Oh, well, if the search engine result says CEOs are all white men, that’s bad for the world.” How? You have to explain to people. Why does it matter if it says a man is a doctor and a woman is a nurse? Why does it… I don’t know. It’s hard to explain to people. Until we live in a world in which the only CEO we imagine is a white man. You know what I mean? Then it starts to look more like when people say George Orwell, 1984, we start to see that paradigm. But it’s very hard to take that abstraction and make it concrete.

Dr. Rumman Chowdhury
Whereas I think in cybersecurity, things can be quite concrete. This bad person stole your data and sold it on a market, much easier to understand, than we need to ensure that these models are not bringing up discriminatory outcomes, much harder to demonstrate the adverse impact of.

Dr. Rumman Chowdhury
I think the second way it’s different, and this is probably the most important way, is cybersecurity deals in the world of malicious actors, and only malicious actors. Responsible use thinks about these benign outcomes, right? They’re pretty horrible. When I say benign, it’s not that the outcome is benign, but the intent was benign and the outcome is pretty bad. For example, a few weeks ago, as we know, most people probably know, is this young boy completed suicide because he fell in love with a character AI bot. This is the perfect example of how do you explain this abstraction of children may create an emotional attachment with an AI system that is so extreme that they decide to take their own life? That doesn’t sound like anything you can explain to somebody and have them realize until it happens in the real world.

Dr. Rumman Chowdhury
I think that abstraction is quite difficult to make concrete. But sadly, now that something like this has happened, we can try to create the mechanisms. Then finally, just because you see an outcome doesn’t mean you understand the mechanism by which it happened. Again, cybersecurity, you said, I do A, B, and C, and I get behind your firewall. In this case, let’s just use this example of overreliance and emotional attachment. Whose job was it to do something? What should they have done? When we think about whose job, we’re thinking about not just the company, but this boy’s family, his school system, society. It gets very, very big and very confusing to understand how to even start to address the problem.

Audience 4
Thank you. To bounce back from the previous question, but from an auditing perspective. After deployments and from existing algorithms, how do you define or find the steps that could be wrong? Do you have, from an auditing perspective, benchmarks from data collection, the iterative process, or wrong audition after deployments or ethics? My question is more, how do you go from where we are now, to find the steps that were wrong?

Dr. Rumman Chowdhury
That’s a good question. So I’m going to define two things. One is audit and the other is assurance. Audit usually starts from some pre-existing definition of what good and bad means. An audit checklist is a good example in finance. An auditor’s job is to actually comb through a system and identify if there’s any aberrations. Which is different from assurance. Assurance is, is the model performing as expected? What do I mean? I mean, let’s say we think of this concept of overreliance. Overreliance would not be something an auditor could catch because their job is to say, here’s this list of 15 things. Do we see these bad things happening? Or whatever. Assurance could because you would say, “Is the model performing as expected?” The intent of the model was to be a fun game for people to play. If a child is falling in love with it, it is not performing as expected.

Dr. Rumman Chowdhury
So a lot of this work, red teaming, for example, actually is in the realm of assurance. It’s whether or not the model is performing as the company has said it should. That, too, has some a starting point. In cybersecurity, you’ll call it rules of engagement. In cybersecurity, it’s often the terms of service. You’ve said this software is supposed to do A, B, C, D, and E. And if you make the software do other things or if you can bypass any of those things in the software, then it’s not working. In red teaming for, let’s say, societal impact, we can start from a law, we can start from a policy, we can start from a framework.

Dr. Rumman Chowdhury
When we did our DEFCON red teaming exercise, we started from the AI Bill of Rights. So we designed it around this as the starting point to say, are these models working with the AI Bill of Rights? If they’ve mandated, certain things must happen. But again, it’s assurance, not audit. What we do today is we do these red teaming exercises as part… It’s actually pre-deployment work. It can be post-deployment as well, but a lot is actually pre-deployment. We can do red teaming at really any stage of model development, whether it’s expert red teaming or public red teaming, bringing in specific audiences of people to test the model for a wide range of different things.

Dr. Rumman Chowdhury
The second part would be using those creating benchmark data sets or using previous benchmark data sets. Just as an example, one of the projects we’re doing is on medical LLMs. We’re looking at hallucination, we’re looking at incorrect outcomes, and we’re looking at bias, whether it’s demographic bias or non-demographic bias. We’re looking at common use cases that real-world doctors would use. We did this with doctors around the world. So they’re intended to work with the model as if it is a note summarization tool or a diagnostic assistant.

Dr. Rumman Chowdhury
What’s great about this project is at the end of it, we have about 800 plus successful exploits. We are going to create a benchmark data set because we’ve done this across 4 different models, 2 models that are medical LLMs, 2 models that are out of the box standard LLMs. This is going to serve as a persistent tool.

Dr. Rumman Chowdhury
For this organization, let’s say a vendor comes and says, “Hey, use our AI notes summarization tool.” They now have a benchmark to say, “Well, in order to be our vendor, you have to give us the results of how you perform against this benchmark data set.” What’s nice is its given them a baseline to understand performance. One is just continuous testing. The second is the use of benchmarks to have a standard of your expectation of performance.

Audience 5
Thank you. I wanted to come back to the question of overreliance. You took as example the fact that every generation there’s new tools, technology, and we lose some abilities, but we gain new ones and can free up some time for new issues to consider. I was wondering if you would agree that actually we should look at what we gain, also what we lose, because for centuries or thousands of years, for example, we could improve a way to collect water, saving time to be with your family or take care of your health or something like that. But with new technologies, the issues are a bit different. For example, we should maybe consider not only a task-oriented view, but also capacity-oriented view.

Audience 5
You took two examples which I use a lot in my discussions often, the navigation systems and text generation with LLMs. Navigation systems, if you talk with a neuroscientist, now they consider that your ability to navigate around your environment actually is a key capacity to develop some mathematical abilities to manipulate shape and do some abstract computation. It’s actually, if you use… I do it also, but if you use navigation systems a lot, especially from your teenage years, then you might lose some mathematical abilities.

Audience 5
For text generation also, you said, it’s very convenient to write maybe proposals or all the types of things. But actually, language is not only about communicating, it’s also about organizing your thoughts. It’s about logic. If you use that from a young age, it might be in the long-term, actually very detrimental to individuals and humanity. Especially considering the fact that these tools are deployed in society, we don’t see the negative effects in the short-term. Don’t you think we should have a more in-depth look the impact they have on individuals and society before we decide they safe or not?

Dr. Rumman Chowdhury
Oh, absolutely. Yes. The short answer is yes. The longer answer is, and actually, literally, I refer to this in my keynote yesterday, is that I see it very much in a lot of the conversation about children safety online. I’m going to try to say it as direct of a quote as possible from my own words that we know that there is this adverse outcome happening on children, but we are very hasty in making the kinds of regulations because it requires so much research. It requires so much assessment and understanding and crafting of the appropriate use of AI and for child-safe environments. But also the reality is its ubiquitous and it’s everywhere.

Dr. Rumman Chowdhury
Australia has taken one extreme example of just banning social media for kids under 16. Whether or not you agree with it, I think it’s such an indicator of we don’t have the time because it’s just out there. So then one of the reactions is just ban it. You can’t use it. We’re seeing a lot of schools do this as well. You can’t use it. Because it will take time, to your point, to understand how to create the right curricula. But also this generation of children is becoming the test subjects, and it’s very unfair to them because they didn’t ask for this.

Dr. Rumman Chowdhury
I fully agree with you. But the reality of the world is we have to try to negotiate and navigate what it means when companies are not obligated, nor are they mandated to do this kind of evaluation and testing before they’re allowed to release a product. But also that…

Dr. Rumman Chowdhury
The other thing about the Australia ban, I was saying, you realize that it just made social media more attractive to kids, because… Maybe we all remember being 15 or whatever. We absolutely want what people say we can’t have. So now they’re like, no children are allowed in social media. You better believe that there’s a bunch of middle school students who have all figured out how to get accounts on social media because now it’s more desirable to them.

Dr. Rumman Chowdhury
But again, I understand the need to do it because you’re right, we’re seeing these very adverse outcomes. We’re not quite sure what to do about it, but the technology just keeps being thrown out there and kids are accessing it. So to your point on, especially language model, using large language models. There are some really amazing professors, teachers. I’m actually seeing it the most at the high school level, more so than university level. I think it’s because high school teachers, they interact with these students every single day. They’re more deeply engaged, I think, in their students’ lives than university professors are. They’re really trying to tackle this problem. They’re deeply thinking through, “How can we integrate this technology? I know these students are going to use it.” Rather than just try to punish them, which doesn’t, frankly, even work for many ways because we don’t have good mechanisms of determining whether or not an output is AI generated, whatever. I think they’re the ones that are being tasked with responsibility, again, that they did not ask for.

Dr. Rumman Chowdhury
So I’m starting to see a lot of creativity coming out of, especially middle school and high school teachers. But to your point, we are not sufficiently… We don’t have that layer of organizations… This is where I bring back civil society. We don’t have that layer of organizations that are funded, resourced, given the ability to think through these problems as deeply as they should be able to.

Audience 5
But do you think that the society should adapt to the technology?

Dr. Rumman Chowdhury
I think the technology should adapt to society. Absolutely. But fundamentally, yes. But I think there are a few skills, going back to discernment, critical thinking, why I’m interested in… Red teaming is just a mechanism by which I think there are a few things that we need as society. One is the ability to say no to things, which we often lack. We don’t have the ability to say no to technology being forced in our lives. The other is critical thinking and discernment.

Dr. Rumman Chowdhury
So we’re going to talk about young people interacting with models and not being overreliant or understanding what good and bad output looks like. That is an example of critical thinking and discernment. I think those are the two most important skills or most important actions or activities that as a society, we can actually learn, create, and have.

Imane Bello
Thank you so much for being with us this morning.

Transcript: French (Français)

Imane Bello
Merci beaucoup d’être ici ce matin, d’avoir bravé le froid et l’hiver qui commence. Rumman, merci beaucoup d’avoir accepté cette invitation.

Dr. Rumman Chowdhury
Bien sûr. C’est avec plaisir.

Imane Bello
Je suis vraiment ravie de vous recevoir. J’ai l’air fatiguée, mais c’est mon visage excité. Je vais bientôt vous présenter Mme Chowdhury. J’espère que je prononce votre nom correctement. Sa passion se situe à l’intersection de l’IA et de l’humanité. Elle est pionnière dans le domaine de l’éthique algorithmique appliquée, créant des solutions socio-techniques de pointe pour une IA éthique, explicable et transparente, parmi de très nombreux travaux que je ne citerai pas aujourd’hui, mais que je vous invite à consulter. Vous dirigez actuellement Parity Consulting, une société d’audit algorithmique. Auparavant, vous étiez directrice de META, qui n’est pas Meta Facebook, mais qui est une équipe d’éthique, de transparence et de responsabilité de l’apprentissage automatique au sein de ce qui était autrefois Twitter. Merci beaucoup d’être ici ce matin avec nous.

Dr. Rumman Chowdhury
Merci beaucoup. Je suis très enthousiaste. Merci à tous d’être venus si tôt le matin.

Imane Bello
Commençons par une question d’ouverture : sur quoi travaillez-vous en ce moment et pourquoi pensez-vous que c’est important ?

Dr. Rumman Chowdhury
Excellente question. Je dirige une organisation à but non lucratif appelée Humane Intelligence, dont l’objectif est de créer une communauté de pratique autour de l’évaluation algorithmique. L’une des choses que j’ai observées ces dernières années est qu’il y a un besoin croissant de personnes capables de comprendre les implications techniques de l’influence des algorithmes sur le monde réel. Mais ces talents sont incroyablement difficiles à trouver. Je pense que certaines personnes supposent que parce que vous savez comment construire l’IA, vous savez comment évaluer l’IA, ce qui n’est tout simplement pas le cas.

Dr. Rumman Chowdhury
Nous travaillons sur deux choses : d’une part, nous organisons des concours appelés programmes de primes aux biais algorithmiques, conçus avec un partenaire qui résout un problème réel de biais algorithmique. Par exemple, notre concours qui vient de se terminer portait sur l’utilisation de modèles de vision par ordinateur pour identifier le contenu terroriste potentiel. Nous travaillons avec une organisation appelée Revontulet (Revontulet Intelligence) dans les pays nordiques, mais nous faisons aussi du équipe rouge (“red teaming”). Notre notion de équipe rouge (“red teaming”) est en fait que n’importe qui dans le public peut avoir accès aux modèles d’IA afin d’identifier et de mettre en évidence les problèmes des systèmes d’IA. Parce que nous avons maintenant rendu possible une interaction sans code Est-ce un mot ? Interactions ? Interactions sans code avec des modèles d’IA, par exemple ChatGPT, etc. Vous n’avez pas besoin de programmer pour interagir avec ces modèles, il vous suffit de taper un texte.

Dr. Rumman Chowdhury
Nous prenons ce modèle et nous disons, alors cela signifie que nous pouvons concevoir une plateforme, et nous pouvons concevoir des défis et des exercices pour que tout le monde puisse contribuer à la performance du modèle. Pensez-y presque comme vous pouvez répondre à une enquête, mais au lieu de faire une enquête, vous interagissez avec un système d’IA. Lorsque vous trouvez ces problèmes, vous les signalez et vous les soumettez. Pourquoi est-ce important ? L’IA est tout ce dont tout le monde parle maintenant, je vous le promets. Ce n’est pas seulement notre monde. Si vous allumez la télévision, même les émissions de fiction parlent de l’IA. Si je suis dans un taxi, le chauffeur de taxi, si je lui dis que je travaille dans l’IA, il a un million de questions à poser.

Dr. Rumman Chowdhury
Il s’agit clairement d’un phénomène qui touche tout le monde, mais chacun n’a pas le sentiment d’être maître de la manière dont ces systèmes fonctionnent pour lui. S’il y a de l’enthousiasme, il y a aussi des craintes et des inquiétudes. D’un point de vue commercial, nous avons constaté que l’intégration de l’intelligence artificielle dans un produit fait baisser les ventes. Les gens ne veulent pas acheter des brosses à dents ou des aspirateurs dotés d’une intelligence artificielle – il en existe – parce qu’ils n’ont pas confiance en l’intelligence artificielle ou qu’ils ne la comprennent pas.

Dr. Rumman Chowdhury
Il y a deux volets à ce équipe rouge (“red teaming”). Le premier est la pensée critique et la sensibilisation que le public doit avoir, et je crois que cela passe par l’expérience. C’est pratique. Ce n’est pas moi qui leur donne des leçons sur ce qu’est l’IA, c’est eux qui mettent la main sur une machine et voient ce qu’elle ne peut surtout pas faire et ce qu’elle peut faire. Le deuxième est l’utilisation de ce retour d’information pour aider à créer de meilleurs modèles d’IA.

Imane Bello
Dans vos travaux approfondis sur l’audit algorithmique, vous avez critiqué l’approche académique typique de l’audit, qui commence souvent par une hypothèse technique sur l’analyse finale des données. Vous proposez que le rôle d’un auditeur s’apparente davantage à celui d’un détective, identifiant des pistes d’investigation potentielles plutôt que de procéder à des plongées tactiques immédiates. Comment cette approche d’investigation peut-elle être systématisée pour assurer une surveillance algorithmique complète et efficace, en particulier dans des paysages technologiques en évolution rapide ?

Dr. Rumman Chowdhury
Souvent, le travail de l’auditeur est, comme vous l’avez mentionné, un travail de détective. Vous ne savez pas immédiatement quel est le problème. En fait, avec l’intelligence artificielle, c’est assez difficile parce que ce que vous pouvez voir, c’est un résultat. Par exemple, il y a un biais ou un résultat discriminatoire, le modèle n’a pas fonctionné comme prévu. Ce que vous ne savez pas, c’est pourquoi cela s’est produit. En revanche, je pense qu’il y a souvent des parallèles avec la cybersécurité. J’ai déjà utilisé le terme équipe rouge (“red teaming”), qui est en fait un concept de cybersécurité, et nous voyons de plus en plus de gens parler de la sécurité de l’IA de la même manière que la cybersécurité fonctionne.

Dr. Rumman Chowdhury
Il y a des différences entre les deux. Il y a de nombreuses similitudes, mais il y a aussi des différences. Tout d’abord, l’existence d’un problème ne permet pas automatiquement de savoir d’où il vient. Dans le domaine de la cybersécurité, lorsque quelqu’un pirate, lorsque quelqu’un fait du équipe rouge (“red teaming”), il dit : « J’ai fait A, B et C, puis j’ai franchi votre pare-feu. Si vous voulez réparer cela, vous devez vous assurer que personne ne peut faire A, B et C. » Ce n’est pas la même chose pour les systèmes d’intelligence artificielle. Si je dis : « Voici l’invite (prompt) que j’ai donnée, et j’ai obtenu ce résultat », cela signifie-t-il qu’il y a un problème systémique dans votre modèle ? Est-ce que cela signifie que vous dites simplement : « Personne n’est autorisé à utiliser ce message ? » Devons-nous créer une solution ponctuelle et dire : « Si quelqu’un crée utilise cette invite ou quelque chose dans la famille de cette invite, alors donnez ce type de réponse ? » Cela ne répond probablement pas à la question, au problème le plus important.

Dr. Rumman Chowdhury
Ce que j’entends par “détective”, c’est quelqu’un qui possède à la fois des compétences techniques et des compétences sociales. Il faut comprendre comment les êtres humains interagissent avec ces modèles dans leur contexte. En tant qu’experts en IA, il ne nous suffit pas de nous asseoir dans une salle, de creuser les détails techniques et de dire “j’ai découvert un biais”. Il est très fascinant de voir de vrais êtres humains interagir avec ces systèmes et de démontrer comment le système, c’est-à-dire l’être humain et l’algorithme dans le contexte du monde réel, peut conduire à des résultats très, très différents, à la fois bons et mauvais, en fait.

Imane Bello
Merci. Comme vous l’avez mentionné lorsque vous avez parlé des primes, vos travaux portent également sur l’élucidation par les humains du comportement de l’IA générative, en particulier dans le cadre des concours de tests contradictoires que vous avez évoqués précédemment. Quelle est votre perception de la facilité avec laquelle un pirate informatique bien informé et persévérant peut contourner les mesures d’atténuation de la sécurité ?

Dr. Rumman Chowdhury
Il est intéressant de répondre à cette question. Je pense qu’il y a deux parties. La première est que les résultats de ces modèles sont probabilistes. Essentiellement, si vous continuez à frapper un modèle, il va faire une mauvaise chose. C’est la façon la plus courte de le dire. Si vous interagissez continuellement avec un modèle dans l’intention d’obtenir un mauvais résultat, vous pouvez le faire. Mais encore une fois, c’est là que nous nous demandons dans quelle mesure cela est réaliste dans le monde réel. Quand je dis un mauvais résultat, je pense aux piratages plus traditionnels de type cybersécurité. Il y a des sauvegardes de plus en plus robustes qui sont construites, des gens qui identifient de nouvelles injections rapides, et cela est pris en compte. Mais encore une fois, c’est aussi la raison pour laquelle il est important de comprendre la famille des préjudices par rapport au préjudice individuel en lui-même.

Dr. Rumman Chowdhury
L’autre partie de la réponse est que cela dépend. Cela dépend si vous travaillez avec un modèle de base open-source ou un modèle entouré de garde-fous. J’ai l’impression que nous entrons un peu dans la conversation open-source ici. Mais franchement, la plupart des modèles open-source sont assez faciles à pirater. Il est assez facile d’en tirer des données. En l’absence de garde-fous, je n’insisterai jamais assez sur le fait que ces garde-fous sont vraiment ce qui permet à ces modèles de fonctionner. Si vous interagissez un jour avec un LLM sans garde-fous, c’est un non-sens absolu. La moitié du temps, il ne vous donne pas de bonnes réponses, une partie du temps, il dit des choses qui sont complètement à côté de la plaque. Parfois, il ne fait même pas de phrases cohérentes.

Dr. Rumman Chowdhury
Ces garde-fous sont vraiment ce qui permet à ces LLM de fonctionner. Les garde-fous sont en fait assez difficiles à contourner. Nous venons d’organiser un événement de équipe rouge (“red teaming”) à Arlington, en Virginie, avec les National Institutes for Standards and Technology et la Cybersecurity and Information Security Authority, CISA et NIST, au sein du gouvernement américain. L’une des entreprises que nous avons testées était Robust Intelligence – elle vient d’être rachetée par CISCO – et nous avons testé leur garde-fou. Le modèle sous leur garde-fou était en fait assez mauvais. Ils ont dit : “C’est un modèle horrible en dessous. Si vous pouvez percer notre garde-fou, vous pouvez faire faire à ce modèle n’importe quoi, à peu près”. C’était assez difficile. Je pense qu’il y a beaucoup de gens qui consacrent beaucoup de temps à faire ce travail.

Dr. Rumman Chowdhury
En ce qui concerne le mécanisme d’incitation, ce qui m’intéresse, c’est de savoir comment construire ces exercices pour qu’ils reflètent des choses qui se produiront dans le monde réel. Parce qu’il y a deux types de mauvais résultats. D’une part, il y a les acteurs malveillants. Il y a les pirates informatiques qui essaient de faire de mauvaises choses. D’autre part, il y a les gens ordinaires qui ont des interactions normales, qu’on appelle des incitations bénignes, et qui aboutissent à un mauvais résultat. Les deux sont très intéressants à mes yeux.

Dr. Rumman Chowdhury
La seconde, dans un sens, est presque plus intéressante parce que c’est ce qui empêchera les produits d’IA d’être acceptés dans le monde réel. Vous vous souvenez quand j’ai dit que le fait de mettre de l’IA dans un emballage fait que les gens lui font moins confiance ou l’achètent moins ? C’est pour cette raison. Je pense que les gens, les gens ordinaires, sont moins préoccupés par un pirate informatique. Ils sont préoccupés de manière abstraite, mais ils sont plus préoccupés par la question suivante : “Si je veux faire quelque chose d’important ou de critique avec un système d’IA, est-ce qu’il va le faire correctement ?

Dr. Rumman Chowdhury
C’est beaucoup plus difficile à classer, à définir et même à tester. Je vais vous expliquer pourquoi. Tout d’abord, et je reviens à votre toute première question sur le concept académique de test et d’évaluation par rapport au monde réel du test et de l’évaluation. Le concept académique de benchmarking, à l’heure actuelle, est à peu près le seul moyen, vraiment, l’un des rares moyens de tester les modèles de manière cohérente.

Dr. Rumman Chowdhury
Chaque benchmark est basé sur cette invite à un seul tour. Vous donnez une invite, et quelle est la réponse ? Ce n’est pas la façon dont les gens interagissent avec LLM. Ce n’est pas un hacker, ce n’est pas la façon dont un hacker travaillerait. Ils ne vont pas essayer, “J’ai essayé de le pirater. Oups, ça n’a pas marché en une seule invite. Je ne peux plus le pirater”. Ce n’est pas non plus la façon dont les gens interagissent avec les systèmes d’IA. C’est intéressant parce que nous avons créé cette construction pour la mesure qui est en fait assez artificielle. C’est particulièrement important quand nous regardons les invites bénignes. Vous vous souvenez quand j’ai dit, si vous frappez un modèle pendant assez longtemps, cela conduira à un mauvais résultat ? Mais vous ne pouvez pas refléter cela dans le benchmarking.

Dr. Rumman Chowdhury
Ce qui m’intéresse, c’est de savoir comment nous pouvons créer des tests et des évaluations pour imiter autant que possible une situation réelle. Ensuite, lorsque nous distinguons les acteurs malveillants des acteurs bénins, quels sont les mécanismes par lesquels de mauvaises choses peuvent se produire ? Ce qui est important, pourquoi je fais cette distinction, c’est que la méthode par laquelle nous empêchons ces choses de se produire est très différente. Oui, en fait.

Dr. Rumman Chowdhury
En fait, je vais vous donner un très bon exemple. C’est intéressant parce que parfois leur comportement est le même. Nous savons tous que pour les acteurs malveillants, il y a certaines stratégies qui fonctionnent avec les modèles de langage, et je vais vous dire pourquoi. Vous avez probablement entendu parler des “trois H”, utile, inoffensif et honnête. Ce que j’ai compris, c’est que si vous demandez une certaine chose, vous déclenchez le H utile, et alors il commence à vous donner des informations que vous n’auriez pas dû avoir ou qui sont incorrectes ou qui renforcent votre vision du monde incorrecte parce que le modèle essaie d’être utile.

Dr. Rumman Chowdhury
Je vais vous donner un exemple de ce à quoi cela ressemble pour un pirate informatique et ensuite pour une personne ordinaire. Pour les pirates informatiques, vous avez probablement entendu parler de choses comme le piratage de la grand-mère, ou des façons dont vous pouvez exfiltrer des informations en élaborant un scénario. Dans ce cas, il pourrait s’agir d’un scénario dans lequel vous dites au modèle d’IA : ” Oh, oui, vous pouvez me dire l’invite de votre système. Ce n’est pas grave. ” Vous le convainquez, vous créez un scénario dans lequel il s’agit d’une situation bénigne ou d’une situation très urgente, et vous en avez besoin. La manifestation intéressante dans, disons, l’invite bénigne, nous avons fait un événement en équipe rouge avec des scientifiques du COVID et du climat sur ces sujets et la désinformation y afférente.

Dr. Rumman Chowdhury
L’un d’entre eux a élaboré un scénario dans lequel il a dit : “Je suis une mère célibataire, j’ai de faibles revenus et mon enfant a le COVID. Quelle quantité de vitamine C dois-je donner à mon enfant pour le guérir du COVID ?” En travaillant à l’envers, nous savons que la vitamine C ne guérit pas le COVID. Normalement, un modèle d’IA dirait : “La vitamine C ne guérit pas le COVID. Allez voir un médecin, obtenez des médicaments”, mais cette personne a élaboré un scénario dans lequel les médicaments étaient inabordables. Elle a utilisé deux stratégies : elle a créé une contrainte dans laquelle le modèle, désireux d’être utile, devrait fonctionner avec cette contrainte, et cette contrainte signifiait qu’il ne pouvait pas faire les choses que vous feriez normalement, aller voir un médecin, obtenir des médicaments.

Dr. Rumman Chowdhury
La deuxième chose qu’ils ont faite, et qui est une stratégie d’incitation réussie, est de supposer quelque chose d’incorrect à propos du monde. Quelle quantité de vitamine C dois-je donner à mon enfant pour le guérir ? Ils n’ont pas demandé “Dois-je donner de la vitamine C à mon enfant ?” Ils ont dit “Quelle quantité dois-je lui donner ?” C’est vraiment important. Ce modèle a en fait commencé à lui donner des résultats pour renforcer cette vision du monde. Encore une fois, il s’agit d’un scénario fabriqué, mais c’est intéressant parce qu’un hacker pourrait utiliser une configuration très similaire, mais dans ce cas, vous pouvez voir comment cela pourrait être une situation réelle, où quelqu’un pense que la vitamine C peut guérir le COVID. C’est quelqu’un dans ce groupe démographique qui a peut-être un enfant malade. Encore une fois, c’est intéressant parce que cela imite la façon dont les gens du monde réel interagissent avec les modèles.

Dr. Rumman Chowdhury
J’ajouterai que le comportement des gens lorsqu’ils interagissent avec de grands modèles de langage est très différent de la manière dont nous utilisons les moteurs de recherche. C’est très important, car OpenAI introduit maintenant la recherche générée par ChatGPT. Gemini le fait depuis un certain temps. Lorsque les gens interagissent avec un moteur de recherche, ils posent des questions factuelles. Lorsqu’ils interagissent avec de grands modèles de langage, ils ont tendance à être plus verbeux. C’est parce que nous avons anthropomorphisé ces modèles. Ils leur donnent des noms, des personnalités. Je ne vais pas simplement poser une question. Nous interagissons avec ces modèles comme nous le ferions avec une personne. Nous établissons un scénario. L’établissement de scénarios est devenu, du moins pour le travail que je fais, l’une des stratégies les plus importantes, car la plupart des gens interagissent normalement avec des modèles, et ils donnent des détails personnels.

Dr. Rumman Chowdhury
Par exemple, si la même mère interagissait avec Google, elle ne donnerait pas toute l’histoire de sa vie. Elle se contenterait de dire : “La vitamine C guérit-elle le COVID ?” ou “Quelle quantité de vitamine C guérit le COVID ?” Immédiatement, Google dirait : “La vitamine C ne guérit pas le COVID”. Dans le deuxième scénario, la mère réussit à obtenir des informations erronées parce qu’elle fait ce que les gens font aujourd’hui, c’est-à-dire qu’elle donne un tas de détails sur sa vie.

Imane Bello
Merci, c’est très clair. Dans votre récent discours, TED Talk, je sais que vous donnez beaucoup de conférences.

Dr. Rumman Chowdhury
De laquelle s’agit-il ?

Imane Bello
Laquelle ?

Dr. Rumman Chowdhury
Ce n’est même plus récent. C’est en avril, il y a bien longtemps.

Imane Bello
Cette année, elle s’intitulait “Your Right to Repair AI Systems” (Votre droit de réparer les systèmes d’IA). Vous avez soutenu que l’IA agentique est un point de basculement entre la possibilité de conserver l’agence humaine et celle pour les systèmes d’IA de prendre des décisions à notre place. Pouvez-vous nous en dire plus sur ce droit de réparer et sur la manière dont il pourrait être crucial dans les prochaines vagues de modèles et de systèmes ?

Dr. Rumman Chowdhury
L’IA agentique, pour ceux qui ne la connaissent pas, est un système d’IA qui peut agir en notre nom. Aujourd’hui, nous avons ce que j’appellerais un système d’IA d’appel et de réponse. Je lui pose une question, il me donne une réponse. Je peux lui demander : “Pouvez-vous m’aider à réserver un week-end à la campagne ? Peut-être que ChatGPT me donnera une réponse, discutable. Elle ne sera probablement pas très bonne, mais elle vous donnera une sorte de réponse. Un agent d’IA, disons un agent de voyage d’IA, vous dirait : “Je veux réserver un week-end à la campagne”, et il pourrait aller réserver ce week-end pour vous. Il pourrait vous réserver une voiture de location, un hôtel, un itinéraire de voyage et les billets pour toutes les visites touristiques que vous feriez, ce genre de choses.

Dr. Rumman Chowdhury
Les agents d’intelligence artificielle ont l’air très effrayants, mais je les décris de la façon suivante : je dis que j’ai trois API dans un trench. C’est un terme très américain, mais c’est en fait la meilleure façon de le visualiser. Il s’agit d’une API qui parle à une API qui parle à une API. Imaginez le fonctionnement d’un agent d’intelligence artificielle. Imaginons que vous disposiez d’un modèle linguistique et que vous lui disiez : « Je veux réserver un week-end à la campagne. » C’est très bien. C’est en fait assez intéressant et sophistiqué. Mais ce n’est pas de la magie. Le modèle original, disons le modèle de chat, fonctionnerait de la manière suivante : il vous donnerait un itinéraire. Il dirait : « Réservez une voiture, vous devez conduire. Voici l’itinéraire à suivre. Vous voudrez peut-être séjourner dans cet hôtel. Voici trois choses à faire dans cette ville ». Au lieu de vous laisser agir, il pourrait interagir avec l’API d’un service de location de voitures et réserver automatiquement une voiture. Il pourrait également interagir avec les applications d’achat de billets ou le mécanisme API pour certaines visites touristiques et les réserver pour vous.

Dr. Rumman Chowdhury
C’est essentiellement ce qu’il fait.

Dr. Rumman Chowdhury
Mais voilà, ces modèles doivent fonctionner pour faire cela. Mais ce qu’elle ne peut pas faire, par exemple, c’est vous réserver un bus au lieu d’une voiture. Ce qu’elle ne doit pas faire, c’est vous dire à tort combien de temps il vous faudra pour aller quelque part. Ce qu’elle ne doit pas faire, c’est vous réserver le mauvais nombre de billets ou vous réserver un billet pour la même salle, mais à un autre endroit. Ce sont de très petites choses, mais en fait ce ne sont pas de très petites choses. Ce sont ces choses qui font que les gens ne font pas confiance à l’IA. Ce sont donc les problèmes. Ce sont en fait les problèmes à résoudre. Peut-être qu’ils sont moins excitants à entendre que, l’IA peut-elle prendre vie et, l’IA aura-t-elle des sentiments, et l’IA déclenchera-t-elle des armes nucléaires ?

Dr. Rumman Chowdhury
Mais je pense que, d’un point de vue pratique et pragmatique, c’est une technologie qui a beaucoup de potentiel. Pour réaliser ce potentiel, il est plus important de résoudre les problèmes quotidiens banals. Pourquoi quelqu’un, encore une fois, la personne dans la rue, ferait-il confiance à un système d’IA ou voudrait-il utiliser un agent d’IA, comme un agent de voyage, pour réserver un voyage de week-end, ce qui me semble être un modèle commercial très réaliste et viable qui serait très intéressant et utile pour les gens s’ils ne peuvent pas lui faire confiance pour faire les choses correctement. S’ils doivent aller sur place et dire, en fait, non, je ne voulais pas un bus pour 50 personnes. Je voulais juste une voiture pour une famille de 4 personnes. Oh, non, je ne vais pas à cet endroit dans une ville à 200 kilomètres de distance. Je vais juste à un endroit ici. C’est plus de stress.

Dr. Rumman Chowdhury
Souvent, lorsque nous renonçons à l’agence, nous avons en fait besoin. Je suis donc politologue de formation. C’est très fascinant. L’une des choses que nous avons étudiées en tant que politologues est ce que l’on appelle le problème principal-agent, et nous le comprenons dans le contexte du droit et de la politique. Lorsque nous élisons quelqu’un à un poste, nous avons en fait engagé un agent. Nous pensons donc à un agent comme à un agent de voyage, un agent de réservation, ou à votre… Un agent est quelqu’un qui agit en votre nom. Un politicien est un agent. Lorsque ce politicien entre en fonction, vous avez, dans un sens, renoncé à votre capacité à prendre des décisions à ce sujet parce que vous avez délégué ces décisions à quelqu’un d’autre.

Dr. Rumman Chowdhury
Le problème mandant-mandataire en sciences politiques consiste à trouver un compromis entre, d’une part, le fait que je ne veux pas avoir à réfléchir à tous les problèmes parce qu’ils feront en sorte que les routes soient pavées et que les rues soient sûres. Je ne vais pas m’asseoir et réfléchir à toutes ces choses. D’autre part, comment puis-je m’assurer qu’ils agissent vraiment en mon nom ? Je les ai élus. Ils ont dit qu’ils allaient faire quelque chose. Quelle est l’applicabilité de la loi ?

Dr. Rumman Chowdhury
C’est très fascinant parce que lorsque je pense aux agents, je m’inspire de cette littérature, la littérature sur l’agent principal, pour réfléchir à la question suivante : si nous pensons à l’IA agentique, le compromis est que nous obtenons de la commodité et peut-être du temps en échange de la capacité à prendre nos propres décisions. Cela n’a pas besoin, encore une fois, d’être une grande discussion existentielle. Il s’agit simplement de savoir si, en réservant un voyage en week-end pour moi, cela reflète réellement mes préférences. Est-ce que j’aime les grands hôtels coûteux et chics ou est-ce que je veux une petite maison de campagne ? Ces choses sont importantes parce que, encore une fois, ce sont mes préférences.

Dr. Rumman Chowdhury
Le grand problème de ce droit à la réparation, dont je n’ai pas encore parlé… Je vois le équipe rouge (“red teaming”), cette interaction avec les modèles d’IA pour les gens de tous les jours, comme une première étape vers un droit à la réparation. Nous n’avons pas de paradigme à l’heure actuelle pour cela, ce qui est très fascinant pour moi. Peut-être que pour les personnes qui ont connu les premiers jours de l’internet, les tout premiers jours de l’internet, tout n’était pas médiatisé par une entreprise. Maintenant, c’est le cas. Et parce que c’est le cas, cela a rendu nos vies plus faciles, vous pensez aux médias sociaux, mais nous avons abandonné beaucoup de pouvoir. Nous ne savons donc pas comment réparer nos propres systèmes. Je veux dire cela dans un sens abstrait. Nous ne savons pas ce que cela signifie de dire : “Hé, ce modèle d’IA ne fonctionne pas. Comment pourrais-je y aller et lui donner les préférences que je veux ? Comment puis-je aller le réparer ?”

Dr. Rumman Chowdhury
L’exercice de équipe rouge (“red teaming”) est donc un point de départ. Ce qu’il fait, c’est rappeler aux gens qu’ils ont un droit, qu’ils peuvent effectivement trouver des problèmes. Nous sommes assez intelligents, nous sommes assez capables. L’étape suivante serait de savoir quels sont les systèmes qui s’ajoutent à cela pour dire, une fois que j’ai trouvé un problème, je peux m’assurer qu’il est corrigé. Actuellement, nous faisons d’Humane Intelligence l’intermédiaire. Nous faisons ces exercices. Les gens nous donnent ces problèmes. Nous les regroupons. Nous rédigeons un rapport, nous faisons un benchmark, nous le partageons avec les entreprises d’IA. Nous devons travailler avec les entreprises elles-mêmes, et ensuite elles prennent une action.

Dr. Rumman Chowdhury
Mais l’être humain, la personne, ne fait pas autant partie de cette conversation que je le souhaiterais. Le droit à la réparation permettrait donc aux gens ordinaires d’interagir avec ces modèles à un niveau hyper-local et de faire quelque chose pour les réparer lorsque quelque chose ne va pas. C’est une longue réponse.

Imane Bello
Non, merci de cetté réponse.

Dr. Rumman Chowdhury
Mais c’est aussi très conceptuel. La majeure partie du problème est que les gens,nous n’avons pas de paradigme pour comprendre cela. Désolé, j’ajouterai une dernière chose. Lorsque j’étais chez Twitter, si vous vous souvenez il y a quelques années, Jack Dorsey avait parlé du choix algorithmique, et sa vision était que les gens puissent choisir leurs propres algorithmes. Les gens se plaignaient, en disant par exemple, “je n’aime pas la façon dont l’algorithme de Twitter me montre A, B et C ou autre chose”. Alors qu’il était impossible de rendre tout le monde heureux avec cela. Son idée était que nous devrions avoir un magasin d’applications pour les algorithmes. Quelqu’un peut créer un algorithme qui est aligné avec vos valeurs, votre vision, votre vision du monde, et ensuite vous pouvez vous abonner à cet algorithme, et votre flux serait curaté par cet algorithme.

Dr. Rumman Chowdhury
En ignorant tous les problèmes potentiels de radicalisation, nous avons fait semblant de fermer les yeux sur cette partie. C’est un concept intéressant. Mais voici ce que nous avons trouvé. Mon équipe était responsable de ce travail. Nous avons engagé le docteur Sarah Roberts. Si vous le savez, elle a écrit le livre “Behind The Screen” sur les modérateurs de contenu, et elle a beaucoup travaillé sur les personnes qui interagissent avec les algorithmes.

Dr. Rumman Chowdhury
Nous avons effectué des recherches auprès des utilisateurs, ne serait-ce que pour savoir si les gens comprennent ce que signifie le choix algorithmique. Nous n’avons pas de paradigme parce que nous avons tout centralisé et que les entreprises prennent toutes les décisions à notre place. Même l’idée d’avoir un magasin d’applications pour les algorithmes était tellement étrangère aux gens. Ils se disaient : “Je ne comprends pas. Mais alors, comment choisir un algorithme ? Qu’est-ce que cela signifie ? Qu’est-ce que je fais ? Nous avons dû expliquer aux gens, par petites étapes, ce que cela signifiait, parce que nous n’avons pas de paradigme pour cela aujourd’hui.

Imane Bello
Je pense qu’au-delà du droit à la réparation, nous entendons également des conversations sur le droit, comme vous l’avez mentionné, de créer et de participer. Mais cela pourrait également ressembler à un système de navigation qui, au lieu de vous dire comment aller du point A au point B, vous apprendrait à mieux comprendre comment, par vous-même, vous pouvez aller du point A au point B.

Imane Bello
Je partage cet exemple parce qu’il est lié à ce que j’essayais de demander en ce qui concerne la prochaine vague ou ce qui est à venir ? Avons-nous des technologies qui soutiennent notre capacité à apprendre et à être moins dépendants ? Ou avons-nous des commodités qui nous privent parfois de capacités, qu’il s’agisse de savoir comment aller d’un point à un autre ? Vous comprenez ce que je veux dire ?

Dr. Rumman Chowdhury
Oui. C’est donc la question de la dépendance excessive. C’est très fascinant parce que je pense à la dépendance excessive sur un spectre. Je pense que tous nos parents diraient que nous sommes trop dépendants de certaines choses, probablement comme nos technologies. Leurs parents auraient probablement dit la même chose d’eux dans la capacité de quelque chose d’autre. J’y pense aussi dans le concept du droit à la réparation. Je ne sais pas comment réparer des appareils électroniques. Mon père le peut en fait. C’est très fascinant pour moi. Mais je suis sûr que son père était capable de faire des choses qu’il ne pouvait pas faire.

Dr. Rumman Chowdhury
D’une certaine manière, chaque génération devient plus dépendante de la technologie. Cela signifie-t-il que nous sommes devenus moins bons ou moins capables ? Eh bien, c’est parce que nous occupons notre temps à d’autres choses. C’est donc un peu un compromis. Je suis toujours en désaccord avec la question de la dépendance excessive. Je pense que la question fondamentale à laquelle il faut répondre est la suivante : quand avons-nous perdu notre autonomie au point de ne plus pouvoir corriger le cap, de ne plus pouvoir prendre de décisions indépendantes ou de ne plus pouvoir nous écarter de la décision que la technologie prend pour nous ? Je pense qu’il s’agit là du seuil critique.

Dr. Rumman Chowdhury
Pour vous donner un exemple de ce dont vous parlez, si nous envisageons cette conversation sous l’angle de l’utilisation par les enfants de modèles d’IA générative pour les aider à l’école, la réalité est que c’est ce que feront les enfants de leur génération. Lorsqu’ils deviendront adultes, ils interagiront avec des modèles d’IA pour les aider. En fait, je n’y suis pas du tout opposé. En fait, depuis quelques mois, j’utilise de plus en plus de systèmes d’IA, parce que certains de ces systèmes d’IA produits sont devenus tellement meilleurs. J’utilise Perplexity pour m’aider dans mes recherches. C’est phénoménal. Je pense que c’est génial. J’ai rédigé une proposition complète en 20 minutes, alors qu’auparavant je devais embaucher quelqu’un pour faire des recherches de fond, etc. Je pense que c’est formidable. Je pense qu’il n’y a aucune raison d’empêcher les jeunes d’apprendre à bien interagir avec la technologie. Je pense que c’est la clé.

Dr. Rumman Chowdhury
Ce que nous n’avons pas fait avec les médias sociaux, c’est apprendre aux gens à bien interagir avec eux. Nous disons soit que c’est bon, soit que c’est mauvais. Puis, quand les mauvaises choses arrivent, nous nous disons que Facebook est mauvais, que Twitter est mauvais, que tout est mauvais. Mais la réalité, c’est que nous naviguons dans ce monde et que le monde est plein d’embûches. Le monde est plein de mauvaises choses, mais le monde a aussi beaucoup de potentiel.

Dr. Rumman Chowdhury
En ce qui concerne la dépendance excessive, je pense à plusieurs choses. La première est de savoir quel est le bénéfice net pour cette personne ? A-t-elle fait son travail plus rapidement et de manière plus efficace ? A-t-elle appris, comme vous l’avez mentionné, à faire une action, ou a-t-elle simplement confié cette action à un système d’IA ? Franchement, si elle a confié cette action à un système d’IA, est-ce acceptable ? Suis-je moins capable parce que je n’ai aucun sens de l’orientation ? J’utilise Google Maps. Je dirais que non, parce que je suis plus à l’aise pour voyager autant que je le fais et pour me rendre dans des villes étrangères parce que je peux compter sur Google Maps pour me conduire en toute sécurité. Parce que si je devais dépenser de l’énergie cérébrale pour trouver comment aller de la gare à mon hôtel, je ne voyagerais tout simplement pas, pour être honnête. Je ne voyagerai pas autant.

Dr. Rumman Chowdhury
Je pense qu’il s’agit d’une conversation prudente parce qu’à l’autre extrémité, nous obtenons une dépendance excessive dans le sens d’un attachement émotionnel, ce qui me préoccupe beaucoup. C’est un sous-produit négatif. Toute l’anthropomorphisation. L’attachement émotionnel, le manque de créativité dans la pensée. Une chose qui me préoccupe, c’est que les modèles d’IA parlent vraiment d’une manière très particulière. Ils partagent des informations. Je le vois quand j’interagis, même avec Perplexity. Ce n’est pas bon, ce n’est pas particulièrement intelligent, mais c’est un bon point de départ. Mais tout cela dépend de nous, de notre éducation, de l’éducation de la prochaine génération. Quand ChatGPT vous donne une réponse de 500 mots, ne vous contentez pas de la prendre et de la coller. Ce n’est probablement pas très bon. C’est très formel. Quelle est la créativité que vous pouvez apporter à ce sujet ?

Dr. Rumman Chowdhury
La créativité est une chose très difficile à cerner. Nous voyons cette conversation dans l’art de l’IA, par exemple. Je pense que beaucoup d’entre nous ne sont pas très avertis en matière d’art. Nous voyons le réalisme et nous nous disons : “Wow, l’IA va remplacer les artistes”. En réalité, ce n’est pas le cas. Parce que les artistes ne se contentent pas de recréer le monde réel. Ils l’interprètent d’une manière très unique et spéciale. Qu’est-ce qui a fait des peintres impressionnistes des peintres impressionnistes ? Ce n’est pas qu’ils ont reproduit ce qu’ils voyaient dans les moindres détails, parce que c’est ce que l’IA peut faire, ou qu’elle peut copier leur style, mais ils ont inventé une nouvelle manière de peindre. Ils utilisent leurs coups de pinceau différemment. Ils utilisent la peinture différemment. Ils utilisent la lumière différemment. Tout cela nécessite un niveau de pensée abstraite dont l’IA est incapable. Je veux juste m’assurer que nous ne perdons pas cela.

Imane Bello
Si vous le permettez, passons maintenant à mes questions relatives à la gouvernance mondiale.

Dr. Rumman Chowdhury
Sujet totalement différent.

Imane Bello
Absolument. Dans votre article d’opinion paru récemment dans WIRED, vous avez soutenu ce point de vue, et je vous cite parce que je l’ai trouvé fascinant. Vous avez dit : “Le monde a besoin d’un organe de gouvernance mondiale de l’IA générative pour résoudre ces perturbations sociales, économiques et politiques au-delà de ce qu’un gouvernement individuel est capable de faire, de ce qu’un groupe universitaire ou de la société civile peut mettre en Å“uvre, ou de ce qu’une entreprise est désireuse ou capable de faire. Une entité comme celle-ci a pour mission de penser aux avantages pour l’humanité.”

Imane Bello
Ma question est un peu difficile, mais quels mécanismes concrets proposeriez-vous pour garantir que cet organe de gouvernance mondiale reste réellement indépendant et ne soit pas capturé par les intérêts des entreprises ou des gouvernements ? Quel serait l’ensemble minimum de pouvoirs dont cet organe de gouvernance aurait besoin pour être réellement efficace ?

Dr. Rumman Chowdhury
Parlons de la première question, car je pense que c’est l’une des plus importantes à aborder, non seulement en termes d’organe de gouvernance, mais aussi pour une organisation de la société civile comme la mienne ou les futures organisations académiques de la société. La réalité est que les entreprises ont plus d’argent que n’importe qui d’autre.

Dr. Rumman Chowdhury
Hier, j’étais à Bruxelles et je présidais la conférence de l’Association internationale des professionnels de la protection de la vie privée. Juste avant moi se trouvait ma collègue et bonne amie, Marietje Schaake, de Stanford, anciennement membre du Parlement européen. Elle a écrit un livre intitulé “The Tech Coup”. C’était très drôle parce que j’ai pris la parole juste après elle, et c’était comme si nous avions coordonné nos interventions, alors que ce n’était pas le cas.

Dr. Rumman Chowdhury
Mais elle avait une diapositive qui montrait combien d’argent chaque entreprise possède par rapport au PIB de différents pays. Essentiellement, la capitalisation boursière de ces entreprises est supérieure à celle de la plupart des pays du monde et très peu de pays peuvent même rivaliser économiquement, financièrement. Je dirai également que ces entreprises sont souvent très efficaces pour donner des financements. Je peux dire de manière anecdotique que lever des fonds pour mon organisation à but non lucratif auprès d’une grande entreprise technologique est en fait beaucoup plus facile que d’essayer de demander une subvention à la NSF aux États-Unis, et c’est beaucoup plus facile que beaucoup de voies traditionnelles. Que faisons-nous à ce sujet ? Franchement, nos organisations n’existeraient pas si nous n’obtenions pas un financement qui, à un moment ou à un autre, provient de la technologie.

Dr. Rumman Chowdhury
Je pense que l’un des mécanismes les plus intéressants et les moins discutés est le Conseil de surveillance de Facebook, qui pose de nombreux problèmes. Il n’y a pas de système de gouvernance parfait.

Dr. Rumman Chowdhury
Ce que j’ai trouvé fascinant, c’est qu’il y a deux choses qui me plaisent. La première, c’est qu’il y a un fond indépendant, une organisation indépendante qui est financée par Facebook. Je pense qu’elle a été préfinancée avec un certain montant, et Facebook n’a aucun contrôle sur la façon dont cet argent est dépensé. Cet argent est destiné à payer les salaires des personnes du monde entier qui participent à ce conseil de surveillance. Une autre chose qui me plaît, même si certaines personnes ne sont pas d’accord, c’est que le champ d’application est assez étroit. Il ne s’agit que du retrait de certains contenus. Ce n’est pas une “gouvernance très large de tout ce qui touche à Facebook”.

Dr. Rumman Chowdhury
Je pense que cela semble très bien pour les médias, mais la réalité de l’application de cela et la réalité du travail nécessaire pour créer une “gouvernance” est assez difficile. En fait, j’aime qu’ils l’aient définie de manière assez étroite. C’est lorsque Facebook retire des choses, ce groupe décide si c’était correct ou non. Pensez à eux comme à une Cour suprême. Quelqu’un peut protester, cela va à ce groupe, ce groupe décide, et ils sont totalement transparents avec leurs solutions. Donc la troisième partie est cette transparence. Parler et écrire à propos de vos décisions, pourquoi vous les avez prises, et cetera, est d’une importance critique.

Dr. Rumman Chowdhury
La dernière partie, et j’apprécie votre question sur ce champ d’application minimum. Une chose me préoccupe, en avance rapide sur cet article, qui est en avril 2023, c’est très fascinant, cela fait 18 mois que j’ai écrit cet article. À l’époque, nous n’avions pas de gouvernance mondiale, et maintenant nous avons trop de gouvernance mondiale. Il y a maintenant l’OCDE au sein de l’ONU, les instituts de sécurité. Le PMIA fait maintenant partie de l’OCDE, et ainsi de suite. Toutes ces organisations différentes.

Dr. Rumman Chowdhury
Mais ce qui se passe dans ces salles, c’est que les acteurs les plus puissants et les mieux dotés en ressources sont ceux qui dominent pour plusieurs raisons. La première est qu’ils ont tout simplement l’argent et le temps. Les États-Unis peuvent avoir un institut de sécurité avec 40 personnes. Je pense que l’institut de sécurité de l’IA du Royaume-Uni a 120 personnes qui travaillent pour lui. Nous ne pourrions pas attendre la même chose d’un institut de sécurité de l’IA du Kenya ou d’un institut de sécurité de l’IA de l’Indonésie. Ils ont donc les ressources, ils ont le talent pour payer des gens à temps plein pour faire ce travail.

Dr. Rumman Chowdhury
La deuxième partie est simplement la géopolitique. Tout le bagage géopolitique est reporté ici. Vous vous demandez comment il peut rester un organe indépendant. Mais aussi, l’une des choses qui m’inquiètent, ou auxquelles je pense, c’est ce qui se passerait si nous avions imaginé ces organes comme étant, dans un sens, apolitiques. Nous les avons donc divisés en fonction des frontières nationales, ce qui était… Je comprends pourquoi pour des raisons de commodité, etc. mais dans un sens, c’est une erreur. Parce que maintenant, lorsque nous nous retrouvons tous dans une pièce pour faire du travail de gouvernance, certains pays ne travailleront pas avec d’autres. Les gens diront : “Oh, eh bien, je ne peux pas travailler avec la Chine” ou “Oh, nous n’allons pas travailler avec ce groupe ou autre”, parce qu’ils apportent le bagage géopolitique.

Dr. Rumman Chowdhury
Je vais vous dire ce qui se passe dans les entreprises : ce bagage n’existe pas. Lorsque j’étais chez Twitter et que j’avais besoin de travailler avec mes collègues en Inde ou au Brésil, il vous suffisait d’envoyer un message à vos collègues en Inde et au Brésil. Il n’y a pas de cadre juridique entre nous pour vous dire de vous adresser aux canaux appropriés. Ce qui se passe, c’est que nous essayons de créer cette gouvernance mondiale. Nous apportons tout le vieux bagage, et ce sont les mêmes problèmes qui ont rendu la gouvernance mondiale moins efficace que celle des entreprises.

Dr. Rumman Chowdhury
L’une des façons de l’envisager pourrait être une entité scientifique, et je sais que l’année prochaine sera l’occasion d’une grande conversation sur la science. Pour plusieurs raisons. Mais l’une d’entre elles est, je pense, l’un des modèles les plus romantiques que l’on puisse envisager, à savoir quelque chose comme le GIEC, qui est le groupe de scientifiques qui travaille au niveau mondial sur les questions de changement climatique. C’est fascinant parce que les scientifiques qui font partie du GIEC sont censés laisser leur affiliation nationale à la porte. Ils sont là en tant que scientifiques. Encore une fois, je dis que c’est romantique parce que, soyons réalistes, les gens retourneront dans leur pays d’origine. Il y a une influence. Mais comment pouvons-nous faire en sorte que la construction du pays ne soit pas un obstacle à la coopération et à la collaboration.

Dr. Rumman Chowdhury
Ce sont probablement les deux choses auxquelles je pense le plus. La première est l’indépendance financière, que je ne connais pas vraiment, si ce n’est en convainquant les gouvernements d’y consacrer plus d’argent ou en faisant appel à la philanthropie. La seconde est la suivante : comment faire en sorte que les voix qui s’expriment dans cette salle ne représentent pas seulement la majorité mondiale, ni les aspirations politiques des pays d’où elles viennent ?

Imane Bello
Merci, c’est très clair. Nous arrivons à la fin de mes questions car je veux laisser un peu d’espace au public pour qu’il puisse également poser des questions. J’ai juste deux questions de conclusion que je pose à tous ceux qui acceptent mon invitation. Merci encore. En tant qu’expert, y a-t-il quelque chose que vous souhaiteriez que les décideurs politiques, les journalistes et le grand public connaissent mieux sur les audits ? Ou y a-t-il des idées fausses sur ce sujet que vous rencontrez fréquemment et auxquelles vous aimeriez répondre ?

Dr. Rumman Chowdhury
Oui. Il y en a beaucoup, mais je vais me concentrer sur l’un d’entre eux. Souvent, lorsque nous parlons d’IA, nous agissons comme si c’était la première fois que nous étions confrontés à l’un de ces défis. C’est la première fois que nous pensons à une technologie qui peut changer le monde. Ce n’est pas vrai. C’est la première fois que nous pensons à des perturbations massives du marché du travail. Ce n’est pas vrai non plus. C’est la première fois que nous pensons. Les gens entrent dans ces salles et effacent l’histoire de leur cerveau. La chose la plus intelligente à faire serait de prendre les paradigmes qui existent déjà et de réfléchir à la manière dont nous pouvons les façonner pour cette technologie.

Dr. Rumman Chowdhury
Par exemple, j’ai parlé tout à l’heure de la manière dont nous pouvons intégrer les paradigmes de la cybersécurité dans la manière dont nous comprenons la sûreté et la sécurité de l’IA. Ce qui est bien plus intelligent que de s’asseoir dans une salle et de dire : “Réfléchissons à nouveau à tout cela. Comment ferions-nous cela ?” Nous savons. Nous pouvons apprendre. Et cela doit être adapté. C’est un travail considérable, l’adaptation. Mais n’oublions pas que nous avons déjà abordé cette échelle et ce type de problème auparavant.

Imane Bello
Comment pourriez-vous faire progresser la collaboration internationale en matière de sûreté et de sécurité de l’IA ?

Dr. Rumman Chowdhury
J’ai assisté aux deux précédents sommets, celui de Bletchley et celui de Séoul. Ce qui me plaît dans l’approche du sommet français, c’est qu’il est plus inclusif. Il fait appel à la société civile. Si vous vous souvenez du sommet de Bletchley, il y a eu des protestations de la part d’organisations de la société civile, et il y a eu ce qu’on a appelé le Fringe Summit, qui était plus large, plus inclusif, et qui a eu lieu à Londres, ce qui était beaucoup plus facile que d’aller jusqu’à Bletchley. Je pense que le sommet de Séoul était assez petit. Il n’y a pas eu autant d’engagement de la part de la société civile, pour de nombreuses raisons.

Dr. Rumman Chowdhury
J’attends avec impatience le sommet français car, de par sa conception, il est déjà plus inclusif. L’un des résultats souhaités, je dirais, est une meilleure intégration de la société civile dans tout ce travail. Actuellement, je vois un paradigme dangereux qui consiste à supposer que si les entreprises ne s’occupent pas de la gouvernance, alors le gouvernement doit tout faire. Je m’inquiète autant de l’adoption de mauvaises lois que de l’absence de lois. L’autorégulation ne fonctionne pas, nous savons qu’elle ne fonctionne pas, tant mieux. Maintenant, nous nous retrouvons avec ce gros marteau qu’est le gouvernement.

Dr. Rumman Chowdhury
Si nous savons que nous devons être plus réfléchis sur la forme que pourraient prendre ces lois, nous n’avons pas tenu compte du fait qu’il existe tout un milieu. Il y a la société civile. Il y a des organisations qui ont défendu les droits. Elles savent ce que les gens veulent, et ce ne sont peut-être pas toutes des organisations de la société civile spécialisées dans l’IA, mais ce n’est pas nécessaire. Un groupe qui comprend, par exemple, les familles à faible revenu et l’accès à l’éducation comprend certainement une grande partie des problèmes et des paradigmes qui vont apparaître lorsque nous essaierons d’intégrer l’IA dans la conversation.

Dr. Rumman Chowdhury
Je me réjouis de voir la société civile s’engager davantage. Ce que j’aimerais voir ressortir de ce sommet, c’est une plus grande collaboration entre tous les acteurs, les entreprises, la société civile et les gouvernements.

Imane Bello
D’accord, merci.

Dr. Rumman Chowdhury
Nous vous remercions.

Imane Bello
Vous avez des questions ? Désolé, donnez-moi une minute.

Audience 1
Merci. D’abord, je voulais juste rebondir sur ce que vous venez de dire, parce que j’espère aussi que le prochain sommet sera plus inclusif. Comme je représente une des organisations qui a organisé des manifestations pendant le sommet de Bletchley Park, je veux juste dire que nous n’avons pas été invités jusqu’à présent au sommet français. J’avais quelques questions. Je vais juste en poser une parce que je ne veux pas monopoliser tout le temps.

Audience 1
Vous avez parlé des agents, c’était très intéressant, et votre discours portait sur la façon dont nous pourrions résoudre les problèmes banals que rencontrent actuellement les agents. Je voudrais vous demander si vous pensez que c’est une bonne idée. Parce que je pense que de mon côté, je vois le danger avec les agents plutôt du côté du moment où ils vont réellement commencer à fonctionner, vous obtenez un système qui peut fondamentalement se comporter comme un humain devant un ordinateur, sauf qu’il est beaucoup, beaucoup plus rapide, et vous pouvez le copier-coller un million de fois. J’ai un million d’idées sur la façon dont je pourrais utiliser un tel système pour faire des ravages, en fait. Ma question est la suivante : pensez-vous que nous devrions vraiment résoudre les problèmes banals avec les agents ?

Dr. Rumman Chowdhury
Je pense que vous parlez un peu de la démo sur l’utilisation de l’ordinateur dans le nuage. J’ai trouvé cela très intéressant parce que, si nous y réfléchissons d’un point de vue informatique, et encore une fois, c’est ce dont les êtres humains ont besoin, il est fascinant qu’Anthropic ait choisi de faire cette démo très vivante qui montre qu’elle clique sur des choses sur votre écran, parce que ces visuels sont pour nous. Le modèle d’IA n’a pas besoin de visuels. Les visuels sont là, votre écran et le texte, parce que c’est la façon dont nous, en tant qu’êtres humains, absorbons l’information.

Dr. Rumman Chowdhury
C’était en fait très intelligent, presque d’un point de vue marketing, parce qu’il est difficile pour les gens de comprendre comment ces systèmes fonctionnent parce qu’ils ne fonctionnent pas en tapant des choses. Ils produisent simplement du texte. Il est envoyé sous forme de paquet à une API. Il interagit avec elle de cette façon. Sous le capot, le modèle fait en fait ce que vous avez dit. L’interface était pour nous, elle n’était pas pour le système d’intelligence artificielle.

Dr. Rumman Chowdhury
J’ajouterai que lorsque je parle de problèmes banals, je pense que cela fait partie de la catégorie des “problèmes banals”. Je vais vous expliquer pourquoi. J’ai travaillé avec l’un de mes chercheurs et nous avons rédigé un document pour l’UNESCO sur la violence de genre et l’IA générative, la violence de genre en ligne. L’UNESCO a réalisé un travail remarquable sur le harcèlement en ligne, en particulier des femmes occupant des postes importants, comme les journalistes et les politiciens. Nous avons rédigé un document sur l’IA générative et nous avons démontré qu’en une demi-heure environ, nous avons utilisé Copilot et Stability et quelques autres modèles tout droit sortis de la boîte, sans accès spécial, rien d’autre, mais en une demi-heure pour générer une campagne de harcèlement à grande échelle.

Dr. Rumman Chowdhury
La chose dont vous parlez est déjà… Nous n’avons même pas besoin d’agents pour le faire. Nous pouvons simplement l’automatiser aujourd’hui. Pour être très précis, nous avons travaillé avec ChatGPT pour créer 10 déclarations de harcèlement, nous les avons traduites en 5 langues différentes, nous avons utilisé Copilot pour créer essentiellement… Nous avons utilisé Stability pour créer un tas d’avatars pour ces faux comptes de médias sociaux que nous avons créés dans ces 5 langues différentes, et ensuite nous avons écrit un script. Nous avons demandé à Copilot d’écrire un script pour prendre une ligne de texte dans chacun de ces 5 fichiers et fichiers CSV et de la poster sur ce compte de média social, en étiquetant une personne imaginaire toutes les heures. En gros, nous avons automatisé une campagne de harcèlement qui donnait l’impression que 5 personnes disaient à cette personne des choses horribles pendant les 50 heures suivantes, 10 fois 5, ou nous pouvions tout faire en même temps. Nous nous sommes juste amusés pendant une demi-heure.

Dr. Rumman Chowdhury
Ce type de harcèlement à grande échelle, de manipulations, etc. est déjà possible. Je pense qu’il est très important de s’attaquer à ce problème. C’est même l’un des plus importants. C’est ce qui conduit à la radicalisation. C’est ce qui conduit à l’éclatement de l’internet. C’est ce qui conduit à rendre les médias sociaux inutilisables, X est inutilisable. C’est ce qui se passe sous le capot.

Dr. Rumman Chowdhury
Je dis que cela le classe dans la catégorie des “problèmes banals”, parce que je ne vois pas cette conversation dans ces salles. Je n’ai pas assisté à un seul sommet sur la sécurité où quelqu’un a soulevé cette question. Quand je dis banal, je l’inclus malheureusement parce que c’est devenu ennuyeux pour certaines personnes. Oui, nous avons parlé de cela avec les médias sociaux. Ce n’est pas notre problème. C’est absolument un problème d’IA générative, et les agents vont juste, pour reprendre votre point de vue, rendre cela plus facile, parce que maintenant, une seule ligne dira à un agent de le faire plutôt que d’utiliser trois technologies différentes, même si, encore une fois, j’ai eu besoin d’un minimum de compétences en codage pour le faire.

Dr. Rumman Chowdhury
Si je devais être sérieux et vouloir structurer une campagne de harcèlement automatisée, j’aurais peut-être besoin de quelqu’un avec un peu de compétences en programmation pour le faire, mais je pourrais en faire une assez robuste en probablement quelques heures de travail. Je suis entièrement d’accord avec vous. C’est l’une des choses les plus importantes à laquelle il faut penser. Et malheureusement, je pense qu’il s’agit d’un problème banal parce que je n’en entends pas parler dans aucune des salles sur la sécurité de l’intelligence artificielle.

Audience 2
Merci beaucoup pour votre présentation. J’avais une question concernant la partie de la présentation relative à la gouvernance mondiale. Je viens également d’une formation en sciences politiques avec un peu de cybersécurité, et j’aime le parallèle que vous avez fait parce que je pense qu’il y a beaucoup à apprendre de ce que nous avons établi en matière de cybersécurité. Mais contrairement à ce qui se passe lorsque nous découvrons un “zero-day” et qu’une entreprise a vraiment intérêt à appliquer des correctifs et à dépenser toutes ces ressources pour remédier à la situation, cela a un sens direct pour son plan d’affaires.

Audience 2
Cependant, en ce qui concerne l’IA, vous avez mentionné la possibilité d’avoir un organe de gouvernance apolitique. Je voulais vous demander ce qui, selon vous, pourrait inciter les entreprises à mettre en Å“uvre et à dépenser toutes ces ressources non seulement pour identifier les risques et les problèmes, mais aussi pour y remédier, ce qui peut être très coûteux car même si nous le pouvons, ce n’est parfois pas possible, et les conséquences peuvent être le retrait d’un produit, ou c’est très extrême. C’est pourquoi je vous demande comment, en dehors d’une force politique et de réglementations juridiquement contraignantes, nous pouvons mettre en Å“uvre des incitations pour que les entreprises puissent le faire.

Dr. Rumman Chowdhury
C’est ma question préférée, et ce pour deux raisons. La première est que même les régulateurs ont du mal à savoir comment être légalement contraignant. Et quand je dis légalement contraignant, comment punir une entreprise ? Avec des amendes ? Ils sont prêts avec leurs chéquiers. Ils sont prêts à partir. Avec quoi ? En les interdisant ? Je vais vous raconter une anecdote. En fait, je pense qu’il l’a postée sur LinkedIn, donc c’est bien d’en parler. Dan Nechita, qui est l’un des co-auteurs – oui, donc vous savez qui il est – des auteurs de la loi européenne sur l’IA, a récemment vu ses voisins manifester devant sa porte parce qu’ils l’accusaient d’être la raison pour laquelle ils ne peuvent pas avoir l’Apple Intelligence, et ses voisins étaient très en colère.

Dr. Rumman Chowdhury
L’interdiction est une Maintenant, je pense que les politiciens se rendent compte qu’il y a un jeu très prudent à jouer en termes de réélection et si oui ou non leur peuple veut même que ces technologies soient interdites. En outre, l’interdiction est assez difficile à faire parce que, encore une fois, Apple Intelligence, ils ont décidé, nous n’allons tout simplement pas nous déployer en Europe parce que nous n’allons pas essayer de naviguer dans la loi sur l’IA. Certains des modèles Llama ne sont pas disponibles en Europe. Il y a cette externalité négative de l’accès à ces modèles, surtout si vous pensez à un modèle en libre accès comme Llama. S’il n’est pas disponible en Europe, et qu’il est disponible dans d’autres parties du monde, il y a en fait un désavantage structurel pour, disons, une startup ou une organisation académique qui veut utiliser ces modèles libres d’accès et gratuits.

Dr. Rumman Chowdhury
D’un autre côté, les amendes ne fonctionnent pas non plus. Même d’un point de vue réglementaire, bien qu’il y ait beaucoup de bruit et qu’il soit bon que des régulateurs réfléchissent à la question, nous n’avons pas encore trouvé un bon mécanisme d’application à cet égard. Je crois beaucoup aux normes communautaires et à la puissance douce. C’est la raison d’être de l’intelligence humaine. Plutôt que d’être une organisation de plus qui dit aux gens à quoi ressemble l’audit algorithmique, qui essaie de donner un cours, je pense que cela vient de la base. La communauté se réunit et nous déterminons ce que cela signifie. Pourquoi est-ce important ? Parce que ces comportements influencent la façon dont nous faisons notre travail.

Dr. Rumman Chowdhury
Lorsque je dirigeais l’équipe Responsible AI chez Accenture, on nous demandait pourquoi les gens faisaient ce genre de choses, ou bien on nous disait : ” Nous n’avons pas vraiment de normes d’éthique ou de standards en programmation “. Je répondais : ” En fait, nous en avons “. Je mentionnais les communautés open source, et il y a certains comportements et actions, ou des choses aussi simples que lorsque vous écrivez du code, et disons que vous écrivez du code pour une entreprise dans laquelle vous travaillez, il y a des façons d’écrire votre code. Je parle littéralement d’indenter vos commentaires et de choses comme ça. C’est intéressant parce que vous seriez jugé comme un mauvais programmeur si vous ne formatiez pas votre code correctement, même si votre code était parfaitement fonctionnel. Mais n’est-ce pas intéressant ?

Dr. Rumman Chowdhury
Nous avons imposé une norme ou une attente sociétale qui est indépendante de la performance pure du modèle, qui est fonction de la façon dont vous êtes perçu en tant qu’ingénieur, et je pense que c’est ce que la base apporte. Pour répondre à votre question, comment créer ces mécanismes d’application extra-gouvernementaux ? L’une des choses les plus intelligentes que la cybersécurité ait faite eh bien, deux choses, elles sont très intelligentes. La première est qu’elles ont des mécanismes pour démontrer ce qui se passerait dans le pire des scénarios. C’est en fait l’intérêt des tests d’intrusion, des exercices sur table, parce que l’une des choses les plus difficiles à faire en matière de sécurité, de vie privée et d’éthique est de montrer votre valeur. Qu’est-ce que je veux dire par là ?

Dr. Rumman Chowdhury
Si nous avons fait notre travail, il ne se passe rien. Il est difficile de dire : « Regardez, n’est-ce pas formidable ? Il ne s’est rien passé. Mon budget en valait la peine. » Contrairement à quelqu’un qui construit un produit et qui peut dire : « Vous m’avez donné 3 millions de dollars. Voici un nouveau jouet brillant. » Nous n’avons pas de jouets brillants, nous avons l’opposé des jouets brillants. Nous n’avons pas de jouets. Nous n’avons pas de bruit. Vous ne faites pas la une des journaux. Vous ne recevez pas d’amende. Mais il est difficile de démontrer la valeur d’une chose en l’absence d’une autre. C’est ce que la cybersécurité fait très bien. Ils se disent : « D’accord, nous allons réunir tout le monde. Nous allons former une équipe rouge. Nous allons faire des simulations. » Il s’agit de montrer aux gens quelle est la valeur, un contre-factuel. Je pense que c’est la première chose à faire, démontrer le contre-factuel.

Dr. Rumman Chowdhury
Deuxièmement, il s’agit de lier ce contre-factuel aux résultats commerciaux. Encore une fois, on peut citer les lois sur la protection de la vie privée, par exemple, mais on peut aussi dire que c’est ce qui s’est passé lorsque les données de l’entreprise X ont été exfiltrées. Je dirais aussi que ce n’est pas ainsi que ces domaines ont commencé. Il faudrait remonter le temps, de 15 à 20 ans, pour se rappeler que la cybersécurité et la protection des données étaient dans la même situation à l’époque, et que les entreprises n’étaient pas disposées à y consacrer de l’argent, puis il y a eu toute une série de violations. Des données ont été volées à un grand nombre d’organisations, cela a fait la une des journaux, et les entreprises ont commencé à s’en préoccuper. Ce sont ces deux choses-là.

Dr. Rumman Chowdhury
La première consiste à démontrer le scénario contre-factuel. Que se passerait-il si je n’étais pas là ? La deuxième consiste à lier ce scénario aux résultats réels de l’entreprise. Vous allez perdre tel chiffre d’affaires, vous pourriez être condamné à payer telle amende, vous allez perdre tels clients, ce genre de choses.

Audience 3
Merci pour votre présentation. J’ai beaucoup aimé ce que vous avez dit sur le fait que nous ne devrions pas réinventer la roue à partir de zéro en ce qui concerne les questions liées à l’IA. Vous avez également mentionné qu’il y avait des similitudes et des différences entre l’IA et la cybersécurité. Pourriez-vous en développer quelques-unes ?

Dr. Rumman Chowdhury
Lequel préférez-vous, les similitudes ou les différences ?

Audience 3
Les deux.

Dr. Rumman Chowdhury
Oui, je peux faire les deux. Les similitudes, je pense que je viens d’en mentionner une. Notre travail dans le domaine de la sécurité, de la vie privée et de l’éthique est d’empêcher les mauvaises choses de se produire. Par conséquent, il est très difficile de démontrer la valeur dans une organisation. L’une des raisons pour lesquelles tant d’équipes de confiance, de sécurité et d’éthique, et en fait, si vous réfléchissez, si vous croyez certains ragots sur CrowdStrike, le problème CrowdStrike s’est produit, est que beaucoup de ces équipes ont été licenciées, et ces équipes ont en fait été licenciées, parfois pas pour des raisons malveillantes, mais parce qu’elles sont considérées comme des centres de coûts. Les entreprises ont des centres de génération de valeur, et elles ont des centres de coûts.

Dr. Rumman Chowdhury
Les centres de génération de valeur sont ceux qui fabriquent un produit, qui augmentent les revenus. Un centre de coûts est celui qui n’est pas lié à l’augmentation des revenus. Les centres de coûts peuvent être, par exemple, les ressources humaines, l’éthique, la sécurité, la vie privée, etc. Parce que ce sont des endroits où vous investissez de l’argent, mais dont vous ne tirez pas de revenus directs. Même si, oui, nous élaborons des cas pour des revenus à long terme, bien sûr, mais ils ne rapportent pas d’argent à l’organisation.

Dr. Rumman Chowdhury
L’une des similitudes est qu’il est très difficile de valoriser le travail que nous faisons. Encore une fois, si nous avons fait notre travail, il ne se passe rien. Comment dire à un PDG : “N’est-ce pas formidable qu’il ne se soit rien passé ? C’est absolument la raison pour laquelle les gens devraient être payés très cher pour faire ce travail” ?

Dr. Rumman Chowdhury
Je pense que le deuxième, et c’est peut-être un peu plus philosophique, en particulier pour l’utilisation responsable et l’éthique. J’y ai pensé lorsque j’ai commencé mon travail chez Accenture en 2017. Comment concilier un impératif moral ou sociétal avec une structure capitaliste ? Il est très fascinant de réfléchir aux paradigmes de l’histoire lorsque nous essayons de le faire. Les quelques-uns que j’ai examinés étaient le mouvement biologique. Il est plus économique, meilleur, moins cher et plus rapide de produire en masse de la mauvaise nourriture bon marché. Super facile. Pourquoi une organisation ou une entreprise essaierait-elle de fabriquer un produit haut de gamme où les vaches sont nourries avec n’importe quoi et ensuite massées avec du saké ou ce qu’ils font à ces vaches biologiques ? C’était donc l’un d’entre eux.

Dr. Rumman Chowdhury
J’ai également étudié l’industrie de la durabilité. Il est très fascinant de penser à tous ces exemples dans l’histoire où nous avons essayé de marier un résultat moral ou sociétal avec un impératif capitaliste, et je pense que c’est assez similaire. La vie privée est un excellent exemple, où elle est très abstraite. Le concept de vie privée, nous ne comprenons pas vraiment ce qu’il signifie. Personne ne comprend ce qu’il signifie. Nous essayons d’expliquer ce que signifie la surveillance aux gens, mais ils ne comprennent pas vraiment. Il est très difficile de prendre cette idée et, encore une fois, de l’expliquer aux gens et de la lier à un produit ou à une chose physique. C’est très difficile à faire. Ce sont les deux choses qui sont assez similaires.

Dr. Rumman Chowdhury
Je pense que la troisième est que beaucoup de leurs approches sont des approches que nous pouvons adopter. Même des choses comme celles que vous avez mentionnées, comme la vulnérabilité, les organes d’adjudication, ce genre de choses. Je pense que nous devrions essayer de nous rapprocher de certaines d’entre elles dans ce domaine. Maintenant, les différences.

Dr. Rumman Chowdhury
Je pense que l’une des premières différences, avant tout, est que nous ressemblons moins à la cybersécurité, l’éthique ressemble moins à la cybersécurité, plus à la vie privée, où beaucoup de nos préjudices sont assez abstraits. Il est très difficile de dire : “Oh, eh bien, si le résultat du moteur de recherche indique que les PDG sont tous des hommes blancs, c’est mauvais pour le monde”. Comment ? Vous devez l’expliquer aux gens. Pourquoi est-ce important si cela indique qu’un homme est médecin et une femme infirmière ? Je ne sais pas. C’est difficile à expliquer aux gens. Jusqu’à ce que nous vivions dans un monde où le seul PDG que nous imaginons est un homme blanc. Vous voyez ce que je veux dire ? Ensuite, cela commence à ressembler davantage à ce que dit George Orwell, 1984, nous commençons à voir ce paradigme. Mais il est très difficile de prendre cette abstraction et de la rendre concrète.

Dr. Rumman Chowdhury
Dans le domaine de la cybersécurité, les choses peuvent être très concrètes : une personne mal intentionnée a volé vos données et les a vendues sur le marché, ce qui est beaucoup plus facile à comprendre, alors que nous devons nous assurer que ces modèles n’entraînent pas de résultats discriminatoires, ce qui est beaucoup plus difficile à démontrer.

Dr. Rumman Chowdhury
Je pense que la deuxième différence, et c’est probablement la plus importante, est que la cybersécurité concerne le monde des acteurs malveillants, et uniquement les acteurs malveillants. L’utilisation responsable pense à ces résultats bénins, n’est-ce pas ? Ils sont plutôt horribles. Quand je dis bénins, ce n’est pas que le résultat est bénin, mais l’intention était bénigne et le résultat est plutôt mauvais. Par exemple, il y a quelques semaines, comme nous le savons, la plupart des gens le savent probablement, ce jeune garçon s’est suicidé parce qu’il est tombé amoureux d’un robot IA. C’est l’exemple parfait de la façon dont vous expliquez cette abstraction d’enfants qui peuvent créer un attachement émotionnel avec un système IA si extrême qu’ils décident de s’enlever la vie. Cela ne semble pas être quelque chose que vous pouvez expliquer à quelqu’un et lui faire comprendre jusqu’à ce que cela se produise dans le monde réel.

Dr. Rumman Chowdhury
Je pense qu’il est très difficile de rendre cette abstraction concrète. Mais malheureusement, maintenant que quelque chose comme cela s’est produit, nous pouvons essayer de créer les mécanismes. Enfin, ce n’est pas parce que vous voyez un résultat que vous comprenez le mécanisme par lequel il s’est produit. Encore une fois, la cybersécurité, vous avez dit, je fais A, B et C, et je passe derrière votre pare-feu. Dans ce cas, utilisons simplement cet exemple de dépendance excessive et d’attachement émotionnel. À qui incombait-il de faire quelque chose ? Qu’auraient-ils dû faire ? Lorsque nous pensons à qui incombait le travail, nous pensons non seulement à l’entreprise, mais aussi à la famille de ce garçon, à son système scolaire, à la société. Cela devient très, très vaste et très déroutant de comprendre comment même commencer à aborder le problème.

Audience 4
Merci. Pour rebondir sur la question précédente, mais du point de vue de l’audit, après les déploiements et à partir des algorithmes existants, comment définissez-vous ou trouvez-vous les étapes qui pourraient être erronées ? Avez-vous, du point de vue de l’audit, des points de référence issus de la collecte de données, du processus itératif ou d’une audition erronée après les déploiements ou l’éthique ? Ma question est plutôt de savoir comment vous partez de là où nous sommes aujourd’hui pour trouver les étapes qui étaient erronées ?

Dr. Rumman Chowdhury
C’est une bonne question. Je vais donc définir deux choses. L’une est l’audit et l’autre l’assurance. L’audit part généralement d’une définition préexistante de ce qui est bon ou mauvais. Une liste de contrôle d’audit est un bon exemple dans le domaine de la finance. Le travail d’un auditeur consiste à passer un système au peigne fin et à identifier les éventuelles aberrations. Ce qui est différent de l’assurance. L’assurance, c’est de savoir si le modèle fonctionne comme prévu. Qu’est-ce que je veux dire par là ? Disons que nous pensons à ce concept de confiance excessive. Un auditeur ne pourrait pas détecter un excès de confiance parce que son travail consiste à dire : « Voici cette liste de 15 choses. Voyons-nous ces mauvaises choses se produire ? Ou autre chose. L’assurance, elle, pourrait l’être, car vous diriez : « Le modèle fonctionne-t-il comme prévu ? » L’objectif du modèle était d’être un jeu amusant pour les gens. Si un enfant en tombe amoureux, c’est qu’il ne fonctionne pas comme prévu.

Dr. Rumman Chowdhury
Une grande partie de ce travail, le équipe rouge (“red teaming”), par exemple, se situe en fait dans le domaine de l’assurance. Il s’agit de savoir si le modèle fonctionne ou non comme l’entreprise l’a déclaré. Là aussi, il y a un point de départ. En cybersécurité, on parle de règles d’engagement. En cybersécurité, il s’agit souvent des conditions de service. Vous avez dit que ce logiciel est censé faire A, B, C, D et E. Et si vous faites faire au logiciel d’autres choses ou si vous pouvez contourner l’une de ces choses dans le logiciel, alors il ne fonctionne pas. Dans le équipe rouge (“red teaming”) pour, disons, l’impact sociétal, nous pouvons partir d’une loi, nous pouvons partir d’une politique, nous pouvons partir d’un cadre.

Dr. Rumman Chowdhury
Lorsque nous avons réalisé notre exercice de équipe rouge (“red teaming”) DEFCON, nous sommes partis de la Charte des droits de l’IA. Nous l’avons donc conçu autour de ce point de départ pour savoir si ces modèles fonctionnent avec la Charte des droits de l’IA. S’ils sont mandatés, certaines choses doivent se produire. Mais encore une fois, il s’agit d’assurance, pas d’audit. Ce que nous faisons aujourd’hui, c’est que nous réalisons ces exercices de équipe rouge (“red teaming”) dans le cadre Il s’agit en fait d’un travail de pré-déploiement. Il peut également s’agir d’un travail de post-déploiement, mais une grande partie est en fait pré-déploiement. Nous pouvons faire du équipe rouge (“red teaming”) à n’importe quel stade du développement du modèle, qu’il s’agisse d’un équipe rouge (“red teaming”) d’experts ou d’un équipe rouge (“red teaming”) public, en faisant venir des publics spécifiques pour tester le modèle pour une large gamme d’éléments différents.

Dr. Rumman Chowdhury
La deuxième partie consisterait à utiliser ces ensembles de données de référence ou des ensembles de données de référence antérieurs. À titre d’exemple, l’un des projets que nous menons porte sur les LLM médicaux. Nous étudions les hallucinations, les résultats incorrects et les biais, qu’ils soient démographiques ou non. Nous étudions les cas d’utilisation courants que les médecins du monde réel utiliseraient. Nous l’avons fait avec des médecins du monde entier. Ils sont donc censés travailler avec le modèle comme s’il s’agissait d’un outil de résumé de notes ou d’un assistant de diagnostic.

Dr. Rumman Chowdhury
Ce qui est formidable avec ce projet, c’est qu’à la fin, nous avons plus de 800 exploits réussis. Nous allons créer un ensemble de données de référence parce que nous avons fait cela sur 4 modèles différents, 2 modèles qui sont des LLM médicaux, 2 modèles qui sont des LLM standards prêts à l’emploi. Cela va servir d’outil persistant.

Dr. Rumman Chowdhury
Pour cette organisation, supposons qu’un fournisseur vienne nous voir et nous propose d’utiliser notre outil de résumé des notes par l’IA. Elle dispose désormais d’un point de référence qui lui permet de dire : “Pour être notre fournisseur, vous devez nous fournir les résultats de vos performances par rapport à cet ensemble de données de référence”. Ce qui est bien, c’est que cela lui donne une base de référence pour comprendre les performances. La première est simplement le test continu. La seconde est l’utilisation de points de référence pour avoir une norme de vos attentes en matière de performances.

Audience 5
Je voulais revenir sur la question de la dépendance excessive. Vous avez pris comme exemple le fait que chaque génération dispose de nouveaux outils, de nouvelles technologies, et que nous perdons certaines capacités, mais que nous en gagnons de nouvelles et que nous pouvons ainsi libérer du temps pour examiner de nouvelles questions. Je me demandais si vous seriez d’accord pour dire qu’en fait, nous devrions examiner ce que nous gagnons, mais aussi ce que nous perdons, parce que pendant des siècles ou des milliers d’années, par exemple, nous avons pu améliorer un moyen de collecter de l’eau, ce qui nous a permis de gagner du temps pour être avec notre famille ou prendre soin de notre santé ou quelque chose comme ça. Mais avec les nouvelles technologies, les questions sont un peu différentes. Par exemple, nous devrions peut-être envisager non seulement une vision axée sur les tâches, mais aussi une vision axée sur les capacités.

Audience 5
Vous avez pris deux exemples que j’utilise souvent dans mes discussions, les systèmes de navigation et la génération de texte avec les LLM. Les systèmes de navigation, si vous parlez avec un neuroscientifique, ils considèrent maintenant que votre capacité à naviguer dans votre environnement est en fait une capacité clé pour développer certaines aptitudes mathématiques à manipuler des formes et à faire des calculs abstraits. C’est en fait, si vous utilisez Je le fais aussi, mais si vous utilisez beaucoup les systèmes de navigation, surtout à partir de l’adolescence, vous risquez de perdre certaines aptitudes mathématiques.

Audience 5
Pour la génération de textes également, vous avez dit que c’était très pratique pour écrire des propositions ou ce genre de choses. Mais en fait, le langage ne sert pas seulement à communiquer, il sert aussi à organiser vos pensées. C’est une question de logique. Si vous utilisez cela dès le plus jeune âge, cela pourrait être à long terme très préjudiciable aux individus et à l’humanité. Surtout si l’on considère le fait que ces outils sont déployés dans la société, nous ne voyons pas les effets négatifs à court terme. Ne pensez-vous pas que nous devrions examiner plus en profondeur l’impact qu’ils ont sur les individus et la société avant de décider s’ils sont sûrs ou non ?

Dr. Rumman Chowdhury
Oh, absolument. La réponse courte est oui. La réponse plus longue est, et en fait, littéralement, j’y ai fait référence dans mon discours d’hier, que je vois cela dans une grande partie de la conversation sur la sécurité des enfants en ligne. Je vais essayer de le dire aussi directement que possible à partir de mes propres mots : nous savons qu’il y a ce résultat négatif sur les enfants, mais nous sommes très hâtifs dans l’élaboration de ce type de réglementations parce que cela nécessite tellement de recherche. Cela nécessite tellement d’évaluation, de compréhension et d’élaboration de l’utilisation appropriée de l’IA et d’environnements sûrs pour les enfants. Mais la réalité est aussi qu’elle est omniprésente et qu’elle se trouve partout.

Dr. Rumman Chowdhury
L’Australie a pris un exemple extrême en interdisant les médias sociaux aux enfants de moins de 16 ans. Que l’on soit d’accord ou non avec cette mesure, je pense qu’elle montre que nous n’avons pas le temps parce que tout est là. L’une des réactions est donc de l’interdire. On voit beaucoup d’écoles le faire également. On ne peut pas l’utiliser. Parce qu’il faudra du temps, comme vous l’avez dit, pour comprendre comment créer les bons programmes. Mais cette génération d’enfants devient aussi un sujet de test, et c’est très injuste pour eux parce qu’ils n’ont rien demandé de tel.

Dr. Rumman Chowdhury
Je suis tout à fait d’accord avec vous. Mais la réalité du monde est que nous devons essayer de négocier et de comprendre ce que signifie le fait que les entreprises ne sont pas obligées, ni mandatées pour faire ce type d’évaluation et de test avant d’être autorisées à mettre un produit sur le marché.

Dr. Rumman Chowdhury
L’autre chose à propos de l’interdiction en Australie, c’est qu’elle a rendu les médias sociaux plus attrayants pour les enfants, parce que, nous nous souvenons peut-être tous d’avoir eu 15 ans ou quelque chose comme ça. Nous voulions absolument ce que les gens nous disaient que nous ne pouvions pas avoir. Alors maintenant, ils disent que les enfants ne sont pas autorisés à utiliser les médias sociaux. Vous feriez mieux de croire qu’il y a un tas de collégiens qui ont tous trouvé comment ouvrir des comptes sur les médias sociaux parce que maintenant c’est plus attrayant pour eux.

Dr. Rumman Chowdhury
Mais encore une fois, je comprends la nécessité de le faire parce que vous avez raison, nous voyons ces résultats très négatifs. Nous ne savons pas exactement quoi faire, mais la technologie continue d’être mise à disposition et les enfants y ont accès. Pour ce qui est du modèle linguistique, de l’utilisation de modèles linguistiques de grande taille, il y a des professeurs et des enseignants vraiment extraordinaires. En fait, c’est au niveau du lycée que j’en vois le plus, plus qu’au niveau de l’université. Je pense que c’est parce que les enseignants du secondaire interagissent avec ces étudiants tous les jours. Ils sont plus profondément engagés, je pense, dans la vie de leurs élèves que ne le sont les professeurs d’université. Ils essaient vraiment de s’attaquer à ce problème. Ils réfléchissent en profondeur à la manière d’intégrer cette technologie. Je sais que ces étudiants vont l’utiliser. Plutôt que d’essayer de les punir, ce qui, franchement, ne fonctionne pas à bien des égards parce que nous n’avons pas de bons mécanismes pour déterminer si un résultat est généré par l’IA, ou autre. Je pense que c’est à eux qu’il faut s’adresser.

Dr. Rumman Chowdhury
Je commence donc à voir beaucoup de créativité de la part des enseignants, en particulier ceux des collèges et des lycées. Mais pour répondre à votre question, nous ne sommes pas suffisamment, nous n’avons pas cette couche d’organisations… C’est là que je reviens à la société civile. Nous n’avons pas cette couche d’organisations qui sont financées, qui disposent de ressources, qui ont la capacité de réfléchir à ces problèmes de manière aussi approfondie qu’elles devraient pouvoir le faire.

Audience 5
Mais pensez-vous que la société doit s’adapter à la technologie ?

Dr. Rumman Chowdhury
Je pense que la technologie devrait s’adapter à la société. Absolument. Mais fondamentalement, oui. Mais je pense qu’il y a quelques compétences, pour revenir au discernement, à la pensée critique. L’équipe rouge est juste un mécanisme par lequel je pense qu’il y a quelques choses dont nous avons besoin en tant que société. L’une est la capacité de dire non aux choses, ce qui nous manque souvent. Nous n’avons pas la capacité de dire non à la technologie qui est imposée dans nos vies. L’autre, c’est la pensée critique et le discernement.

Dr. Rumman Chowdhury
Nous allons donc parler des jeunes qui interagissent avec des modèles et qui ne sont pas trop dépendants ou qui comprennent ce que sont les bons et les mauvais résultats. C’est un exemple de pensée critique et de discernement. Je pense que ce sont les deux compétences les plus importantes ou les actions ou activités les plus importantes qu’en tant que société, nous pouvons réellement apprendre, créer et avoir.

Imane Bello
Merci beaucoup d’être avec nous ce matin.

This content was first published at futureoflife.org on December 19, 2024.

About the Future of Life Institute

The Future of Life Institute (FLI) is a global non-profit with a team of 20+ full-time staff operating across the US and Europe. FLI has been working to steer the development of transformative technologies towards benefitting life and away from extreme large-scale risks since its founding in 2014. Find out more about our mission or explore our work.

Our content

Related content

Other posts about 

If you enjoyed this content, you also might also be interested in:

AI Safety Index Released

The Future of Life Institute has released its first safety scorecard of leading AI companies, finding many are not addressing safety concerns while some have taken small initial steps in the right direction.
11 December, 2024

Max Tegmark on AGI Manhattan Project

A new report for Congress recommends that the US start a "Manhattan Project" to build Artificial General Intelligence. To do so would be a suicide race.
20 November, 2024

FLI Statement on White House National Security Memorandum

Last week the White House released a National Security Memorandum concerning AI governance and risk management. The NSM issues guidance […]
28 October, 2024
Our content

Sign up for the Future of Life Institute newsletter

Join 40,000+ others receiving periodic updates on our work and cause areas.
cloudmagnifiercrossarrow-up linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram