« Les start-up ne se rendent pas compte qu’il faut qu’elles fassent du law by design »
Tech&droit - Start-up, Intelligence artificielle
20/06/2017
L’intelligence artificielle est encore en plein développement, mais elle a ceci d’ambivalent qu’elle suscite déjà, à la fois, des vagues d’espoir et des craintes profondes, des opportunités de business très importantes et de fortes inquiétudes de destruction massive d’emplois. Mettre de l’éthique, choisir des développements au bénéfice des personnes et accompagner les salariés dans la profonde mutation qui s’annonce, permettra de donner confiance dans cette technologie. Et plus tard, seulement, le droit viendra mettre un cadre. Les explications d’Isabelle Galy, Directrice déléguée aux opérations du Learning Lab « Human Change » au CNAM.
Actualités du droit : Quels bénéfices le développement de l'IA va apporter à la société ?
Isabelle GALY : L’intelligence artificielle est une formidable opportunité pour repenser le vivre ensemble et les règles philosophiques de notre société. Pour moi, le numérique c’est en quelque sorte la période babylonienne (nous sommes dans le progrès technologique, en train de construire les fondamentaux). Tandis que l’intelligence artificielle, c’est peut-être le miracle grec (c’est-à-dire la capacité de comprendre ce que l’on a fait jusqu’à présent, de l’interpréter et de rendre tout cela intelligent et non pas exécutant).
Concrètement, l’IA va faciliter la vie des gens. Mais cela ne sera vrai que si on leur restitue quelque chose en retour, du temps notamment. Jusqu’à présent, la technologie numérique a transformé la vitesse du temps. Les citoyens se sentent davantage en burn out qu’en facilité d’exécution d’une tâche. Il va en aller de même avec l’intelligence artificielle : elle va nous libérer ou nous asservir. C’est à nous de le penser.
AdD : Où en est exactement la recherche en France ? Quelle est la réalité dans les laboratoires ?
I. G. : Tous les chercheurs s’accordent à dire que nous n’en sommes qu’aux balbutiements. Les intelligences artificielles mono-tâches commencent à devenir un peu intelligentes. Mais ce que l’on appelle intelligence, c’est-à-dire la capacité d’appréhender plusieurs choses et plusieurs faits en même temps, de manière contextuelle, nous n’en sommes pas encore là. On est encore loin d’une machine qui ressemble et pense comme l’homme.
AdD : Quels sont les risques que soulève le développement de la recherche sur l'IA ?
I. G. : Ce que l’on pointe comme risques classiquement, c’est que la machine prenne le pouvoir sur l’humain. À côté de cette crainte, il y a d’autres choses qui peuvent inquiéter : est-ce que l’intelligence artificielle ne va pas nous menacer dans le partage du travail ? Ne va-t-elle pas conserver les tâches les plus intéressantes ?
Le « human on command » défendu par le CESE (Comité économique et social européen, rapport sur L’intelligence artificielle - Les retombées de l’intelligence artificielle pour le marché unique (numérique), la production, la consommation, l’emploi et la société, 31 mai 2017, INT/806 EESC-2016-05369-00-00-AC-TRA ; sur ce sujet, voir l’entretien avec l'auteur de ce rapport, Catelijne Muller : Le CESE n’est pas favorable à la création d’une personnalité électronique pour les robots », Actualités du droit, 16 juin 2017) paraît théoriquement bien. Quand Alain Bensoussan indique qu’il faut que les codeurs aient une éthique de codage, c’est intéressant. Néanmoins, il y a quand même ce risque que le machine learning fasse déraper une intelligence artificielle.
Il faut donc surveiller l’éducation des intelligences artificielles. Car c’est là le plus gros risque : ce que l’on va leur apprendre. Une intelligence peut se pervertir (on parle pudiquement de biais cognitifs), et devenir délictueuse.
AdD : Quels sont les travers actuellement relevés ?
I. G. : Aujourd’hui nous sommes à nouveau en 1997, comme au tout début du numérique. À cette époque, nous pensions être à l’aube d’une nouvelle ère. On pensait que les risques étaient grands mais que l’on pourrait rendre le monde plus vertueux grâce à l’alliance de la loi et de la technologie. En termes d’emploi par exemple, on se disait que l’on allait pouvoir construire une vraie parité Homme-Femme. On a fait des lois, de nouveaux métiers ont émergé. Et la disparité est toujours là. Avec le deep learning, les intelligences artificielles vont apprendre du passé. On peut alors se demander comment cette intelligence artificielle corrigera ce passé. Les inégalités risquent de se reproduire, même si on imagine un cadre législatif favorable à un développement vertueux des intelligences artificielles.
AdD : Doit-on craindre la perte de contrôle sur l'IA ?
I. G. : Pas tout de suite, en tout cas. Et si on anticipe trop tôt, on ne va pas permettre à l’intelligence artificielle de se développer et nous n’en verrons pas les potentialités. J’ai du mal à croire que l’on perdra le contrôle. Mais comme les dieux, il se peut que nos créations nous échappent, c’est la raison pour laquelle, il est indispensable de leur donner des valeurs et de l’éthique. Encore faut-il savoir quelles sont ces valeurs et éthiques partagées (c’est culturel) et comment peut-on techniquement le faire…
AdD : Faut-il cadrer la recherche ?
I. G. : Je ne pense pas qu’il faille cadrer la recherche. Ce qu’il faut encadrer, en revanche, ce sont les applicatifs. La recherche doit continuer à explorer.
Actuellement, les applications de la recherche se font essentiellement dans les start-up, qui sont beaucoup plus agiles et adaptées que les laboratoires. Or, il est très important de noter qu’il y a une vraie volonté des start-up à ignorer le contexte juridique, parce qu’elles se disent transformantes de la société. Elles pensent que si elles sont successful, alors le droit suivra. Mais elles oublient Napster, ce prédécesseur qui affichait la neutralité technologique et qui a été tué par le droit, parce qu’il était devenu un moyen de contourner le droit d’auteur. Les start-up ne se rendent pas compte qu’il faut qu’elles fassent du law by design et qu’elles intègrent dans leur développement la moindre friction avec le droit possible. C’est l’un des conseils essentiels que je donnerai à une start-up.
Les hackers sont devenus non seulement des lanceurs d’alertes mais aussi de nouveaux chercheurs, mais ils ne sont pas protégés : faut-il les protéger ? C’est une bonne question.
AdD : Comment coder l'éthique ?
I. G. : Je ne sais pas comment coder l’éthique, pour une raison simple : dans le machine learning, ce n’est plus le codeur qui code. On a même annoncé la fin du code. S’il n’y a plus de codeur, the code is law de Lawrence Lessig est mort.
Peut-on figer des lignes de code par la normalisation ou la standardisation? Ou faut-il mettre des codes de contrôle dans les machines ? Cela voudrait-il dire que toute technologie devrait utiliser ces lignes de code, sorte de policier au sein de chaque intelligence artificielle ? Ou la solution n’est-elle pas simplement de pouvoir débrancher la machine ou encore de s’en faire oublier ? Je pense que l’on en est pas là encore.
AdD : Peut-on contrôler une IA ?
I. G. : Pour l’instant oui, sans problème. Les intelligences artificielles ne reconnaissent toujours pas les chatons : je vois donc mal qu’elle puisse s’opposer à un humain. L’intelligence artificielle est un peu un enfant de huit mois. Ils nous réveillent la nuit mais font à peu près ce qu’on leur demande. Ils dépendent de nous.
Est-ce qu’on la contrôlera dans le futur ? Attendons de voir ce qu’elle sera. Peut-être qu’elle aura elle-même une éthique, qu’elle va elle-même développer ? Qu’est-ce qui nous dit que l’intelligence artificielle ne sera pas bonne ? C’est une vraie question rousseauienne.
AdD : Comment, demain, l'humain restera-t-il employable ?
I. G. : Introduire de l’intelligence artificielle dans une organisation, ce n’est pas une mince affaire. Il faut un accompagnement. Les services ressources humaines doivent prendre en compte cette mutation et aider à penser le métier de demain de chacun des collaborateurs. Faute de quoi, cela va créer des conflits et les collaborateurs vont s’opposer à cette technologie "voleuse d’emploi".
Par ailleurs, pour rester employable, il faut savoir quels sont nos besoins en formation. Ce qui suppose de savoir quel métier je pourrais exercer et de quelles compétences j’aurais besoin. C’est ce que nous faisons au Learning Lab « Human change », avec les entreprises. Il faut accompagner les salariés dans cette mutation.
Dans les nouvelles générations, si le job ne leur plaît pas, ils ne restent pas. Nous travaillons donc avec les entreprises sur l’engagement et sur la confiance. Il faut que les salariés tirent un bénéfice personnel de cette technologie.
AdD : Quel est le rôle des politiques ? Faut-il légiférer ?
I. G. : Le rôle du politique, c’est de comprendre, déjà. Ce nouveau gouvernement, technophile, parle beaucoup de la bienveillance, du progrès : il n’est pas contre le changement et veut l’accompagner.
Sur le rôle de la loi, je pense qu’il faut d’abord poser les grands principes de l’intelligence artificielle, puis mettre un cadre d’expérimentation, avant de définir les principes du droit qui devront s’appliquer.
Propos recueillis par Gaëlle MARRAUD des GROTTES
Isabelle GALY : L’intelligence artificielle est une formidable opportunité pour repenser le vivre ensemble et les règles philosophiques de notre société. Pour moi, le numérique c’est en quelque sorte la période babylonienne (nous sommes dans le progrès technologique, en train de construire les fondamentaux). Tandis que l’intelligence artificielle, c’est peut-être le miracle grec (c’est-à-dire la capacité de comprendre ce que l’on a fait jusqu’à présent, de l’interpréter et de rendre tout cela intelligent et non pas exécutant).
Concrètement, l’IA va faciliter la vie des gens. Mais cela ne sera vrai que si on leur restitue quelque chose en retour, du temps notamment. Jusqu’à présent, la technologie numérique a transformé la vitesse du temps. Les citoyens se sentent davantage en burn out qu’en facilité d’exécution d’une tâche. Il va en aller de même avec l’intelligence artificielle : elle va nous libérer ou nous asservir. C’est à nous de le penser.
AdD : Où en est exactement la recherche en France ? Quelle est la réalité dans les laboratoires ?
I. G. : Tous les chercheurs s’accordent à dire que nous n’en sommes qu’aux balbutiements. Les intelligences artificielles mono-tâches commencent à devenir un peu intelligentes. Mais ce que l’on appelle intelligence, c’est-à-dire la capacité d’appréhender plusieurs choses et plusieurs faits en même temps, de manière contextuelle, nous n’en sommes pas encore là. On est encore loin d’une machine qui ressemble et pense comme l’homme.
AdD : Quels sont les risques que soulève le développement de la recherche sur l'IA ?
I. G. : Ce que l’on pointe comme risques classiquement, c’est que la machine prenne le pouvoir sur l’humain. À côté de cette crainte, il y a d’autres choses qui peuvent inquiéter : est-ce que l’intelligence artificielle ne va pas nous menacer dans le partage du travail ? Ne va-t-elle pas conserver les tâches les plus intéressantes ?
Le « human on command » défendu par le CESE (Comité économique et social européen, rapport sur L’intelligence artificielle - Les retombées de l’intelligence artificielle pour le marché unique (numérique), la production, la consommation, l’emploi et la société, 31 mai 2017, INT/806 EESC-2016-05369-00-00-AC-TRA ; sur ce sujet, voir l’entretien avec l'auteur de ce rapport, Catelijne Muller : Le CESE n’est pas favorable à la création d’une personnalité électronique pour les robots », Actualités du droit, 16 juin 2017) paraît théoriquement bien. Quand Alain Bensoussan indique qu’il faut que les codeurs aient une éthique de codage, c’est intéressant. Néanmoins, il y a quand même ce risque que le machine learning fasse déraper une intelligence artificielle.
Il faut donc surveiller l’éducation des intelligences artificielles. Car c’est là le plus gros risque : ce que l’on va leur apprendre. Une intelligence peut se pervertir (on parle pudiquement de biais cognitifs), et devenir délictueuse.
AdD : Quels sont les travers actuellement relevés ?
I. G. : Aujourd’hui nous sommes à nouveau en 1997, comme au tout début du numérique. À cette époque, nous pensions être à l’aube d’une nouvelle ère. On pensait que les risques étaient grands mais que l’on pourrait rendre le monde plus vertueux grâce à l’alliance de la loi et de la technologie. En termes d’emploi par exemple, on se disait que l’on allait pouvoir construire une vraie parité Homme-Femme. On a fait des lois, de nouveaux métiers ont émergé. Et la disparité est toujours là. Avec le deep learning, les intelligences artificielles vont apprendre du passé. On peut alors se demander comment cette intelligence artificielle corrigera ce passé. Les inégalités risquent de se reproduire, même si on imagine un cadre législatif favorable à un développement vertueux des intelligences artificielles.
AdD : Doit-on craindre la perte de contrôle sur l'IA ?
I. G. : Pas tout de suite, en tout cas. Et si on anticipe trop tôt, on ne va pas permettre à l’intelligence artificielle de se développer et nous n’en verrons pas les potentialités. J’ai du mal à croire que l’on perdra le contrôle. Mais comme les dieux, il se peut que nos créations nous échappent, c’est la raison pour laquelle, il est indispensable de leur donner des valeurs et de l’éthique. Encore faut-il savoir quelles sont ces valeurs et éthiques partagées (c’est culturel) et comment peut-on techniquement le faire…
AdD : Faut-il cadrer la recherche ?
I. G. : Je ne pense pas qu’il faille cadrer la recherche. Ce qu’il faut encadrer, en revanche, ce sont les applicatifs. La recherche doit continuer à explorer.
Actuellement, les applications de la recherche se font essentiellement dans les start-up, qui sont beaucoup plus agiles et adaptées que les laboratoires. Or, il est très important de noter qu’il y a une vraie volonté des start-up à ignorer le contexte juridique, parce qu’elles se disent transformantes de la société. Elles pensent que si elles sont successful, alors le droit suivra. Mais elles oublient Napster, ce prédécesseur qui affichait la neutralité technologique et qui a été tué par le droit, parce qu’il était devenu un moyen de contourner le droit d’auteur. Les start-up ne se rendent pas compte qu’il faut qu’elles fassent du law by design et qu’elles intègrent dans leur développement la moindre friction avec le droit possible. C’est l’un des conseils essentiels que je donnerai à une start-up.
Les hackers sont devenus non seulement des lanceurs d’alertes mais aussi de nouveaux chercheurs, mais ils ne sont pas protégés : faut-il les protéger ? C’est une bonne question.
AdD : Comment coder l'éthique ?
I. G. : Je ne sais pas comment coder l’éthique, pour une raison simple : dans le machine learning, ce n’est plus le codeur qui code. On a même annoncé la fin du code. S’il n’y a plus de codeur, the code is law de Lawrence Lessig est mort.
Peut-on figer des lignes de code par la normalisation ou la standardisation? Ou faut-il mettre des codes de contrôle dans les machines ? Cela voudrait-il dire que toute technologie devrait utiliser ces lignes de code, sorte de policier au sein de chaque intelligence artificielle ? Ou la solution n’est-elle pas simplement de pouvoir débrancher la machine ou encore de s’en faire oublier ? Je pense que l’on en est pas là encore.
AdD : Peut-on contrôler une IA ?
I. G. : Pour l’instant oui, sans problème. Les intelligences artificielles ne reconnaissent toujours pas les chatons : je vois donc mal qu’elle puisse s’opposer à un humain. L’intelligence artificielle est un peu un enfant de huit mois. Ils nous réveillent la nuit mais font à peu près ce qu’on leur demande. Ils dépendent de nous.
Est-ce qu’on la contrôlera dans le futur ? Attendons de voir ce qu’elle sera. Peut-être qu’elle aura elle-même une éthique, qu’elle va elle-même développer ? Qu’est-ce qui nous dit que l’intelligence artificielle ne sera pas bonne ? C’est une vraie question rousseauienne.
AdD : Comment, demain, l'humain restera-t-il employable ?
I. G. : Introduire de l’intelligence artificielle dans une organisation, ce n’est pas une mince affaire. Il faut un accompagnement. Les services ressources humaines doivent prendre en compte cette mutation et aider à penser le métier de demain de chacun des collaborateurs. Faute de quoi, cela va créer des conflits et les collaborateurs vont s’opposer à cette technologie "voleuse d’emploi".
Par ailleurs, pour rester employable, il faut savoir quels sont nos besoins en formation. Ce qui suppose de savoir quel métier je pourrais exercer et de quelles compétences j’aurais besoin. C’est ce que nous faisons au Learning Lab « Human change », avec les entreprises. Il faut accompagner les salariés dans cette mutation.
Dans les nouvelles générations, si le job ne leur plaît pas, ils ne restent pas. Nous travaillons donc avec les entreprises sur l’engagement et sur la confiance. Il faut que les salariés tirent un bénéfice personnel de cette technologie.
AdD : Quel est le rôle des politiques ? Faut-il légiférer ?
I. G. : Le rôle du politique, c’est de comprendre, déjà. Ce nouveau gouvernement, technophile, parle beaucoup de la bienveillance, du progrès : il n’est pas contre le changement et veut l’accompagner.
Sur le rôle de la loi, je pense qu’il faut d’abord poser les grands principes de l’intelligence artificielle, puis mettre un cadre d’expérimentation, avant de définir les principes du droit qui devront s’appliquer.
Propos recueillis par Gaëlle MARRAUD des GROTTES
Source : Actualités du droit