Overblog Suivre ce blog
Administration Créer mon blog
16 juillet 2017 7 16 /07 /juillet /2017 07:51

A l'occasion de la présidence estonienne de l'Union européenne depuis le 1er juillet 2017, la capitale de l'Estonie met en place un service de navettes autonomes et électriques EasyMile.

Deux mini-bus EZ10 de 8 personnes vont circuler dans les prochains jours sur un petit trajet au centre ville de Tallinn entre la place Viru et le Kultuurikatel, pôle creatif qui constitue une des attractions culturelles majeures de la présidence européenne du pays baltique.

Avant d'opérer comme transport public, en provenance de France ( EasyMile est une start-up toulousaine créée en 2014 par Robosoft et Ligier), grâce à la société logistique DSV, le véhicule autonome EZ10,a du passer avec succès les tests de l'administration estonienne des routes et c'est la société Milrem spécialisée en robotique militaire qui s'est chargée de la formation des accompagnateurs (''presenters'') qui seront dans chacun des minibus.

La loi estonienne autorise en effet les tests de véhicules autonomes de type SAE 2 ou SAE 3 sur ses routes depuis mars 2017, mais à la condition qu'une personne titulaire du permis de conduire soit obligatoirement à bord pour en reprendre le contrôle manuel si nécessaire, d'où la présence de ces animateurs.

Pour le moment, le court trajet se fera sur une voie sécurisée, isolée du trafic, le long de la ligne de tramway en rénovation jusqu'à la fin du mois d'août et sera gratuit pour tous les usagers.

La Convention de Vienne sur la circulation routière du 8 novembre 1968 avait été modifiée en mars 2016 et avait ouvert ainsi la voie à la conduite automatisée avec toutefois une restriction, à savoir que les systèmes de conduite automatisée doivent pouvoir "être contrôlés voire désactivés par le conducteur".

Rappelons qu'en France les expérimentations sur route des ''voitures à délégation de conduite'', sont autorisées par ordonnance du 3 août 2016 (lire mon article dans le Village de la justice La France autorise enfin par ordonnance du 3 août 2016)

La loi n°2015-992 du 17 aout 2015 relative à la transition énergétique pour la croissance verte avait en effet disposé dans son article 37 - IX que "le gouvernement est autorisé à prendre par ordonnance toute mesure relevant du domaine de la loi afin de permettre la circulation sur la voie publique de véhicules à délégation partielle ou totale de conduite (…) à des fins expérimentales…"

Mais le décret en Conseil d'Etat indispensable à la mise en oeuvre tarde à venir et il semblerait bien qu'en France  les voitures autonomes aillent plus vite que la réglementation, alors que les constructeurs sont tous bien avancés dans le développement de ce type de véhicule.

(source: http://estonianworld.com/technology/tallinn-introduces-driverless-shuttle-buses/)

Lire également sur le sujet mon article  Concilier valeurs morales et intérêts personnels: le futur choix cornélien des voitures autonomes

 

 

Des véhicules autonomes dans la capitale de l'Estonie: Tallinn se dote de deux minibus sans conducteur
Des véhicules autonomes dans la capitale de l'Estonie: Tallinn se dote de deux minibus sans conducteur
Repost 0
13 juillet 2017 4 13 /07 /juillet /2017 09:20

On n'arrête pas le progrès en matière de robots avocats ?

Après Watson, le premier robot avocat, voici DoNotPay le premier chatbot juriste qui se vante de résoudre gratuitement, comme son nom l'indique, 1.000 problèmes juridiques du quotidien.

Lancé le 12 juillet 2017 par Joshua Browder son fondateur,   DoNotPay étend en effet son activité puisque, cantonné dans un premier temps aux litiges de droit de l'automobile (contestation de contraventions) et de droit d'asile, de nouvelles fonctionnalités lui sont désormais dévolues lui permettant de répondre aux demandes liées au droit de la consommation et de droit du travail.

DoNotPay n'est pas opérationnel (pour le moment) en France, mais seulement en Grande Bretagne et dans 50 états américains.

Il est en principe destiné aux personnes à faible pouvoir d'achat et renvoie dans les cas les plus délicats à des avocats ou des associations opérant pro bono. 

Son taux de succès annoncé serait de 55% 

Alors ubérisation des avocats ou réel progrès en faveur des plus démunis sans accès au droit ? Le débat reste ouvert 

(Source Mashable http://mashable.com/2017/07/12/donotpay-robot-lawyer-businesses/#NmlBVKJOusqJ)

(photo: Joshua Browder et dessin Cabinet Thierry Vallat)

Lire également notre article  Les Robots-avocats trouvent du travail: Maître Ross Watson 

 

Repost 0
Published by thierry vallat - dans droit des Robots
commenter cet article
10 juillet 2017 1 10 /07 /juillet /2017 06:18

Les technologies d'intelligence artificielle offrent un grand potentiel en matière de création de solutions nouvelles et innovantes pour améliorer la vie des peuples, assurer la croissance de l'économie et relever les défis en termes de santé et de bien-être, de changement climatique et de sécurité.

Cependant, comme toute technologie perturbatrice, l'intelligence artificielle comporte des risques et présente des défis sociétaux complexes dans plusieurs domaines tels que le travail, la sécurité, la vie privée, l'éthique, les compétences, etc.

Une approche globale de l'intelligence artificielle, qui couvre tous les effets bons ou mauvais  de cette dernière, sur la société dans son ensemble, s'avère ainsi cruciale, surtout à une époque où les évolutions s'accélèrent.

Le Comité économique et social européen (CESE) vient donc de rendre un avis adopté en assemblée plénière le 31 mai 2017 intitulé Les retombées de l’intelligence artificielle pour le marché unique (numérique), la production, la consommation, l’emploi et la société

L’intelligence artificielle (IA) connaît actuellement un certain nombre d’évolutions majeures et trouve à un rythme soutenu des applications dans la société. Le marché de l’IA s’élève à environ 664 millions de dollars américains (USD) et devrait, selon les estimations, atteindre 38,8 milliards d’USD en 2025. Étant donné que l’IA peut influencer la société de manière aussi bien positive que négative, le CESE a entrepris de suivre attentivement les évolutions dans ce domaine, non seulement d’un point de vue technique, mais aussi sur le plan éthique, sociétal et de la sécurité.
 
Il n’existe pas de définition précise unique de l’IA. Il s’agit d’un concept qui englobe un grand nombre de (sous-)domaines, tels que l’informatique cognitive (cognitive computing: algorithmes qui raisonnent et apprennent à un niveau supérieur, c’est-à-dire plus humain), l’apprentissage automatique (machine learning: algorithmes qui apprennent de manière autonome à réaliser des tâches), l’intelligence augmentée (augmented intelligence: coopération entre l’homme et la machine) et la robotique intelligente (IA intégrée dans des robots). L’objectif principal de la recherche et du développement en matière d’IA est toutefois d’automatiser les comportements intelligents, entre autres la capacité de raisonner, de collecter des informations, de planifier, d’apprendre, de communiquer, de manipuler, de signaler et même de créer, de rêver et de percevoir.
 
Le large impact de l’IA sur la société ne peut pas encore être pleinement évalué. Tout le monde s’accorde toutefois pour dire que cet impact sera majeur. Aujourd’hui, les avancées en matière d’IA se succèdent rapidement, ce qui rend un contrôle critique et global nécessaire pour pouvoir appréhender de manière adéquate et opportune les évolutions décisives et de rupture, de nature tant technique que sociale, susceptibles de changer la donne dans le développement de l’IA ou autour de celui-ci.

Ces évolutions décisives sur le plan technique peuvent être définies comme des avancées notables ou significatives dans le développement de compétences d’IA, qui pourraient constituer des éléments précurseurs d’une IA générale. Les évolutions décisives sur le plan social peuvent être associées à une perte massive d’emplois sans perspective d’emplois de substitution, à des situations précaires, des défaillances du système, une évolution inattendue sur le plan international, etc.

Le CESE a pointé actuellement onze domaines dans lesquels l’IA soulève des enjeux de société: l’éthique; la sécurité; la vie privée; la transparence et l’obligation de rendre des comptes; le travail; l’éducation et les compétences; l’(in)égalité et l’inclusion; la législation et la réglementation; la gouvernance et la démocratie; la guerre; la superintelligence. Le CESE a donc formulé un certain nombre de recommandations.

Le CESE plaide tout d'abord en faveur d’une approche dite «human-in-command» de l’IA, dont les conditions seraient un développement responsable, sûr et utile de l’IA dans le cadre duquel les machines resteraient les machines, sous le contrôle permanent des humains.

Le CESE préconise ensuite l’instauration d’un code de déontologie pour le développement, le déploiement et l’utilisation de l’IA, afin que les systèmes d’IA demeurent, tout au long de leur processus d’exploitation, compatibles avec les principes de dignité humaine, d’intégrité, de liberté, de respect de la vie privée, de diversité culturelle et d’égalité entre hommes et femmes, ainsi qu’avec les droits fondamentaux.

 Le CESE plaide pour la mise en place d’un système de normalisation pour la vérification, la validation et le contrôle des systèmes d’IA, fondé sur un large éventail de normes en matière de sécurité, de transparence, d’intelligibilité, d’obligation de rendre des comptes et de valeurs éthiques.

Le CESE recommande également une infrastructure d’IA européenne, composée de cadres d’apprentissage libres (open source) et respectueux de la vie privée, d’environnements d’essai en situation réelle (real life) et de séries de données de haute qualité pour le développement et la formation de systèmes d’IA. Il attire l’attention sur l’avantage (concurrentiel) que peuvent procurer à l’UE, sur le marché mondial, le développement et la promotion de «systèmes d’IA homologués au niveau européen», dans lesquels cette dernière ferait l’objet d’une certification et d’un étiquetage européens.

 Sur le point spécifique du travail et des risques causés par l'apport massif d'IA, il est nécessaire d'identifier conjointement quels secteurs du marché du travail seront influencés par l’IA, dans quelle mesure et dans quels délais, et trouver des solutions pour faire face aux conséquences de ce processus sur l’emploi, le contenu du travail, les régimes sociaux et l’(in)égalité. Il convient en outre d’investir dans les secteurs du marché du travail dans lesquels l’IA n’a que peu ou pas d’influence.

 Le CESE suggère que ces parties prenantes œuvrent ensemble en faveur de systèmes d’IA complémentaires et de leur mise en place conjointe sur le lieu de travail. L’on peut par exemple penser à des équipes homme-machine au sein desquelles l’IA compléterait et améliorerait les prestations humaines. Elles devraient également investir dans l’apprentissage formel et informel, l’enseignement et la formation pour tous afin de pouvoir travailler avec l’IA, mais également dans le but de développer les compétences qui ne seront pas ou ne pourront pas être assurées par l’IA.

Le développement d’applications d’IA qui bénéficient à la société, favorisent l’inclusion et améliorent la vie des gens doit être activement encouragé et promu, au niveau aussi bien public que privé. La Commission européenne devrait, dans le cadre de ses programmes, financer des travaux de recherche portant sur l’incidence sociale de l’IA ainsi que des innovations en matière d’IA financées par l’UE.

Le CESE soutient par ailleurs l’appel à l’interdiction des systèmes d’armes autonomes lancé par Human Rights Watch et d’autres organisations. Il se félicite de la consultation annoncée sur ce sujet dans le cadre des Nations unies, mais estime que celle-ci devrait également porter sur les applications de l’IA dans le domaine de la «cyberguerre».

Les actions et les décisions des systèmes d’IA (résultant d’algorithmes intelligents) ont une influence croissante sur la vie des personnes. C’est par exemple le cas de l’utilisation de l’IA pour les travaux de police fondés sur l’information, pour l’évaluation des demandes de crédit hypothécaire ou pour les procédures d’acceptation de couverture dans le secteur des assurances. À cet égard, l’intelligibilité et la contrôlabilité du processus de prise de décision d’un système d’IA, ainsi que la capacité de rendre compte de ses actions, sont essentielles.

Mais, d’ores et déjà, de nombreux systèmes d’IA sont très difficiles à comprendre pour les utilisateurs. C’est aussi de plus en plus souvent le cas pour les concepteurs de ces systèmes. En particulier, les réseaux neuronaux sont souvent des boîtes noires (black boxes) dans lesquelles se déroulent des processus (de prise de décision) qui sont devenus incompréhensibles et pour lesquels aucun manuel explicatif n’est fourni.
 
Le CESE plaide ainsi pour des systèmes d’IA transparents, compréhensibles et contrôlables dont le fonctionnement puisse également être expliqué a posteriori. Il convient par ailleurs de définir quels sont les processus décisionnels qui peuvent être confiés à des systèmes d’IA et quels sont ceux qui ne peuvent l’être, et quand une intervention humaine devrait être privilégiée ou exigée.

Le respect de la vie privée dans le cadre des systèmes d’IA est un sujet majeur de préoccupation. De nombreux biens (de consommation) disposent déjà d’un système d’IA intégré: appareils électroménagers, jouets, voitures, montres et bracelets intelligents ou encore smartphones. Tous ces produits communiquent des données (souvent personnelles) aux plateformes en nuage des producteurs. Les inquiétudes liées à la question de savoir si la vie privée est suffisamment protégée sont d’autant plus vives que le commerce des données, c’est-à-dire la vente à des tiers des données recueillies par le fabricant, est en plein essor.

De plus, l’IA est en mesure, grâce à l’analyse d’un très grand nombre de données (souvent) personnelles, d’influencer les choix des individus dans de nombreux domaines (des décisions commerciales aux élections et aux référendums). Les enfants constituent un groupe particulièrement vulnérable. Le CESE exprime sa préoccupation face aux applications d’IA qui visent explicitement à influencer le comportement et les souhaits des enfants.

Il convient d’éviter que l’application de l’IA aux données personnelles ne restreigne la liberté réelle ou perçue des individus. Le règlement général de l’UE sur la protection des données prévoit une protection renforcée de la vie privée concernant les données personnelles transmises par voie numérique. Il convient de contrôler attentivement, à la lumière des évolutions dans le domaine de l’IA, si le droit des personnes au consentement éclairé et au libre choix lors de la transmission des données, mais aussi celui d’accéder aux données transmises, de les adapter et de les vérifier, sont suffisamment garantis dans la pratique.

Concernant la règlementation, il est d’ores et déjà nécessaire d’entreprendre une évaluation concrète de la législation et de la réglementation européennes dans les six domaines désignés par la STOA (Scientific Foresight Unit) susceptibles de faire l’objet d’une révision ou d’une adaptation. Le CESE peut et veut jouer un rôle dans ce processus d’évaluation. Il s’oppose en revanche à la mise en place d’une forme de personnalité juridique pour les robots ou l’IA. Les effets correctifs préventifs du droit de la responsabilité civile s’en trouveraient en effet selon lui vidés de leur substance. De plus, cela créerait des possibilités d’abus de même qu’un risque moral au niveau tant du développement que de l’utilisation de l’IA.

L’IA ne connaît cependant pas de frontières. Il importe dès lors de se pencher sur la nécessité d’une réglementation mondiale, étant donné qu’une réglementation régionale ne suffira pas et aura même des effets indésirables. Compte tenu de son système éprouvé de normes portant sur les produits et la sécurité, des tentations protectionnistes qui se manifestent sur d’autres continents, du niveau élevé de connaissances en Europe, du système de droits fondamentaux et de valeurs sociales en vigueur en Europe ainsi que du dialogue social, le CESE recommande à l’UE de jouer un rôle moteur dans l’établissement de cadres stratégiques clairs et universels en matière d’IA et de stimuler ce processus au niveau mondial.

Enfin se pose la question des perspectives et des risques liés au développement de la superintelligence. Selon Stephen Hawking, la mise au point de l’IA générale représentera déjà la fin de l’humanité. À ce stade, l’IA continuera selon lui à évoluer à un rythme que les hommes ne pourront pas suivre. Certains spécialistes préconisent dès lors la création d’un disjoncteur (kill-switch) ou bouton de réinitialisation (reset-button), permettant de désactiver ou de réinitialiser un système d’IA superintelligent ou qui s’est emballé.

Les débats autour de l'IA ne font donc que commencer.

(source: CESE)

Retrouvez également mes échanges avec Rachel Marsden du 8 mars 2017 sur le sujet: "Intelligence artificielle: opportunité ou menace" http://www.thierryvallatavocat.com/2017/03/intelligence-articielle-opportunite-ou-menace-mon-debat-avec-rachel-marsden-du-8-mars-2017.html

 

Repost 0
11 juin 2017 7 11 /06 /juin /2017 06:52

Nous connaissons tous le générique des Simpsons dans lequel le turbulent Bart recopie au tableau noir de sa classe une phrase différente à chaque épisode, en punition de l'une de ses nombreuses bêtises.

Sur le même concept, l'artiste franco-portugais Filipe Vilas-Boas a imaginé ''The punishment'', une oeuvre, co-réalisée avec l'architecte Paul Codamy, dans laquelle un robot exécute une punition en prévision de sa future désobéissance à la première loi de la robotique posée par Isaac Asimov : ''un robot ne peut porter atteinte à un être humain''

L'installation était présentée dans le festival Futur en Seine qui s''est déroulé du 8 au 10 juin 2017 à Paris-la Villette.  

Rappelons que la première loi est la suivante: ''un robot ne peut porter atteinte à un être humain, ni, en restant passif, permettre qu'un être humain soit exposé au danger'' (la version plus courte écrite en punition est celle du robot Nestor dans Le Petit robot perdu) 

Il s'agit donc d'une amusante, mais dérangeante, installation composée d'un bras robotisé armé d'un stylo recopiant inlassablement sur un carnet d'écolier la phrase ''I must not hurt humans'' (je ne dois pas blesser les humains).

Cette création artistique amène inéluctablement vers la question: ''Faut-il (et comment) punir un robot ? ''

Cette humiliante punition scolaire n'a pas eu sur Bart Simpson d'effets pédagogiques avérés, et même produit l'effet inverse chez notre jaune chenapan et sur une intelligence artificielle alors ?

Comment aurait évolué le programme HAL 9000 imaginé par Stanley Kubrik pour son film ''2001: L’odyssée de l’espace'' qui se retourne contre l'équipage humain, s’il avait recopié mille fois la litanie ''je ne dois pas blesser les humains'' à un stade moins avancé de ses algorithmes ?

La question renvoie bien sur à la notion de personnalité robotique et à celle d'utilité d'une punition pour une machine automatisée. 

En effet, à partir du moment où les robots deviennent des personnes juridiques, se pose la question du châtiment réservé à un robot qui contrevient à la loi. 

Dans un ouvrage publié en décembre 2011 aux Presses du MIT intitulé “L’Ethique du robot - des implication sociales et éthiques de la robotique”, Patrick LinKeith AbneyGeorge A. Bekey consacrent un chapitre entier à cette question de la punition des robots

Pour ces auteurs, la notion de punition est tripartite: celui qui a mal agit doit payer sa dette à la société d'une part. D'autre part, il est censé se réformer pour ne pas commettre à nouveau le même acte et enfin sa punition est censée dissuader les autres de commettre un tel acte.

Toutefois, juger un acte criminel requiert que l'accusé soit doté d'une personnalité et soit responsable du choix de ses actes . Le degré d’autonomie de cette personnalité dépendra de l’intelligence artificielle qui le commandera ou l'aura programmé.

Les intelligences artificielles sont aujourd'hui capables d'auto-apprentissage,  c’est-à-dire que les robots peuvent se développer différemment selon leur propre expérience, échappant ainsi à ceux qui ont programmé leurs algorithmes

Ce sera donc au juge d’évaluer la responsabilité du robot, le cas échéant  partagée entre plusieurs acteurs (le constructeur du robot, celui qui l’a programmé, celui qui l’a testé etc.).

Mais si un juge considère un robot responsable d’un acte criminel : comment alors le punir.

Infliger aux robots des peines similaires à celles infligées aux hommes, cela a -t-il un sens ?

Va-t-on créer des prisons pour robots ou l'obliger à porter un bracelet électronique, si tant est qu'une privation de liberté ait un sens pour une machine intelligente ?

Une vision plus simpliste, et radicale, serait d'envisager de débrancher le robot. Mais s'il est doté d'une personnalité juridique, il sera alors titulaire de droits et on ne pourra impunément le tuer ou le torturer, d'où la nécessité de réfléchir à des peines qui seraient adaptées aux robots.

Pour revenir sur notre oeuvre ''the punishment'' un robot peut-il se réformer et une peine infligée à un robot aurait-elle valeur d’exemple pour ses semblables ? Et pourquoi répéter mille fois la même chose, une ligne ne serait-elle pas suffisante pour une intelligence artificielle ?

Pour l'artiste Filipe Vilas-Boas ''cette automatisation galopante pose de sérieuses questions à la société, notamment sur le travail, l'école, l'éthique, les robots et il serait passionnant que nous y répondions collectivement ».

Et l'artiste de conclure : « une vieille peur en somme, une fausse peur certainement comme dans le mythe du Golem, qu'il faut contrebalancer par toute la somme de travail que les machines en général nous épargnent. Il me semble globalement que nous avons entre les mains un formidable outil de libération. Quel élève puni par une tâche répétitive n'aurait pas souhaité donner ses lignes à recopier à un robot ? »  the punishment by filipe vilas-boas and paul coudamy - Designboom

 

C'est aussi une réflexion sur la punition divine assimilée, ici comme dans le mythe de Sisyphe, au travail inutile et vain : le Créateur s'incarne aujourd'hui dans l'homme qui « punit en cascade l'élève, la machine qui accède à son tour à l'arbre de la connaissance ». Inversion des rôles ou rééquilibrage des rapports de force entre l'homme et la machine, l' « avènement du robot sapiens » inquiète car « il vient déstabiliser le système maître-esclave initialement établi en informatique. » « The Punishment » : punir un robot pour prévenir la rébellion

Et en attendant d'être punis, les robots seront probablement très prochainement taxés (et c'est déjà une punition) Bill Gates et certains hommes politiques comme Benoît Hamon l'ont appelé de leurs voeux, même si le Parlement européen a voté un texte excluant une taxation en février 2017 (lire notre article  Vers la création d'une personnalité juridique électronique )

 

Repost 0
Published by thierry vallat - dans droit des Robots
commenter cet article
11 mars 2017 6 11 /03 /mars /2017 06:07

L'intelligence artificielle risque-t-elle de menacer à terme l'espèce humaine ?

En pleine actualité avec le développement fulgurant des voitures autonomes sans conducteur, des drones civils ou militaires, des SALA, les robots-tueurs ou des chatbots, les algorithmes sont devenus incontournables qu'ils nous fascinent ou qu'ils nous effrayent.

Alors amies ou ennemies ces IA ? Me Thierry Vallat a débattu le 8 mars 2017 sur Sputnik News avec Rachel Marsden de cette question qui agite un monde de la robotique en pleine mutation et dont les contours juridiques viennent d'être esquissés par la Commission européenne qui adopté le 16 février 2017 un rapport sur le statut des robots.

Retrouvez ce passionnant échange sur Sputnik : https://fr.sputniknews.com/radio_desordre_mondial/201703101030396959-intelligence-artificielle/ et en vidéo sur Youtube

 

 

Repost 0
Published by thierry vallat - dans droit des Robots
commenter cet article
15 février 2017 3 15 /02 /février /2017 12:08

"Face tomorrow like a swede": le syndicat suédois TCO invente l'union syndicale pour Intelligences Articielles et révèle une hilarante vidéo dans laquelles des robots revendiquent leurs droits et adhèrent au syndicat idéal...suédois bien entendu

Il est même désormais possible d'adhérer en ligne avec un site, sur lequel chatbots, robots compagnons et humains peuvent d'ores et déjà s'inscrire (http://www.likeaswede.se/#en)

Farfelu ? Pas si sur !

A l'heure de la montée en puissance de l'utilisation des IA dans la secteur du travail que ce soit pour la production industrielle, l'assistance des personnes agées ou des enfants et même les cabinet d'avocats (lire Les Robots-avocats trouvent du travail ), il faudra bien fatalement à un moment se poser la question de l'adaptation du droit du travail aux robots.

D'autant plus que certains sont déjà bien malmenés, notamment en Chine avec des licenciements fort expéditifs  (lire Un robot licencié pour incompétence rêve-t-il de prud'hommes électriques ?) 

Alors le syndicalisme "à la suédoise" comme modèle social, une initiative en tous cas qui fait réfléchir sur l'intégration inéluctable des robots à notre quotidien, y compris dans le monde du travail.

 

Repost 0
13 décembre 2016 2 13 /12 /décembre /2016 10:08

Organisé le 12 décembre 2016 par le Centre de Recherche de l'Ecole des Officiers de la gendarmerie Nationale (CREOGN) en partenariat avec l'Association de Droit des Robots (ADDR), s'est tenu à Paris un passionnant colloque sur la place des robots dans notre société.

En premier lieu, il a été débattu de la réalité technologique des robots et des applications dans les secteurs les plus variés comme les transports, la medecine ou l'industrie, mais aussi des questions éthiques et des interactions Homme-Robot, mais aussi de la nécessité de la création d'une "personnalité robot" et de la mise en place d'un véritable droit de la robotique.

Mais à côté du fulgurant développement des robots civils, ont été également évoquées les applications militaires de ces machines et l'autonomie décisionnelle des systèmes robotisés militaires.

Car, bien entendu, ce sont les robots intervenant dans le secteur Sécurité/Défense et leur plus ou moins grande autonomie qui posent aujourd'hui de nombreuses questions.

Ce fut donc l'occasion lors de cette conférence de préciser la notion de SALA, ces "systèmes d'armes létales automatisées" plus communément surnommées "robots-tueurs" qui se développent partour dans le monde.

Ces armes autonomes capables de choisir leurs cible et de tuer pourraient rapidement remplacer les soldats sur les champs de bataille ou , en matière de sécurité intérieure, dans des opérations de maintien de l'ordre. Cette perspective "robots tueurs" peut donc légitimement inquièter.
 
En effet,  les armes entièrement autonomes seraient encore plus dangereuses que les drones télécommandés qui sont déjà utilisés sur certains conflits, car elles seraient capables de sélectionner et d’attaquer des cibles sans intervention d’un être humain.
 
Se pose donc la question de la définition même de ces SALA, les américains n'ayant par exemple pas la même appréhension de ces systèmes que la France, comme développé dans la directive US 3000.09 de 2012 relative à l'autonomie des systèmes d'armes.
 
Celle de l'implication humaine dans la prise de décision finale reste également primordiale avec la notion d'"Human in the loop", ainsi que le degré d'autonomie de seulement fonctionnelle (déplacement), opérationelle (surveillance) à même décisionnelle.
 
Bien sur, la possibilité d'une absence totale de supervision humaine qui impliquent le recours à une technologie complexe d'intelligence artificelle douée de capacités d'auto-apprentissage, pour aboutir à la prise décision du ciblage pose des problèmes, notamment au regard du respect du DIH (droit international humanitaire) et de la fameuse clause de Martens, ainsi que des conventions de Genève de 1977.
 
Et en prime, les applications des robots en matière de sécurité intérieure peuvent inclure des missions de police, mais aussi de sécurité civile (incendie, maritime) ou en environnement carcéral.
 
Plus concrètement: aura-t-on bientôt des robots affectés aux palpations de sécurité ou effectuant des contrôles radars ? Gardiens de prison ? Qu'en sera-t-il avec la légitime défense des robots (déjà que le débat est en cours pour celle des policiers humains !) Pourra- t-on refuser les ordres d'un robot ?
 
Un encadrement juridique des SALA s'impose donc, notamment pour définir leur utilisation, mais aussi, question essentielle, leur responsabilité.
 
Qui sera le responsable des actions du robot-tueur: le programmateur de l'intelligence artificielle, le constructeur, son financier, le commandant de l'opération ?
 
Les USA qui se sont déjà dotés en novembre 2012 d'une directive 3000.09 relative à l'autonomie des systèmes d'armes réfléchissent à la compléter comme le préconise un rapport "preparing for the future on artifial intelligence" ( The Administration's Report on the Future of Artificial Intelligence )
 
La France n'est pas en reste avec le rapport de l'état-major de l'armée de terre "action terrestre future" et la question du maintien de l'humanité du soldat dans le combat futur qui constitue un enjeu majeur (lire:  Action Terrestre Future : demain se gagne aujourd'hui )
 
Lors de la réunion multilatérale sur le désarmement qui se tient à Geneve jusqu'au 16 décembre 2016, des pourparlers visant à l'interdiction préventive de telles armes seront au coeur des délibérations de la CCAC (conférence d'examen de la convention sur l'interdiction ou la limitation de l'emploi de certaines armes classiques)
 
Néanmoins, on peine à croire à une totale interdiction, alors que l'on assiste à une véritable course à de tels armements des USA à Israël en passant par la Russie et la France, avec les robots Big Dog de Boston Dynamics (logistique), Andros (ouverture de feu), Telemax (deminage), Guardian (reconnaissance)  ou nEUROn (drone) 
 
Reste donc à convenir d'un moratoire et d'un droit des SALA et, plus généralement, d'une construction juridique rationnelle encadrant les robots.
 
Retrouvez la directive américaine du 21 novembre 2012 3000.09: http://www.dtic.mil/whs/directives/corres/pdf/300009p.pdf
 
(crédits dessin: Cabinet Thierry Vallat)
 
 

 

 

Les SALA ou Robots-tueurs: vers une nécessaire réglementation des Systèmes d'Armes Létales Autonomes
Repost 0
Published by thierry vallat - dans droit des Robots
commenter cet article
25 octobre 2016 2 25 /10 /octobre /2016 08:52

Faut-il un régime juridique spécifique pour les robots ?

C'est la question que s'est posée le Symop, qui regroupe  différents acteurs de la robotique industrielle et de la robotique de service, qui publie aujourd'hui 25 octobre 2016 son Livre Blanc « Droit de la robotique », fruit des travaux d'un avocat, Alain Bensoussan, président de l'Association du droit des robots, et d'un ingénieur, Renaud Champion, dirigeant de Primnext et cofondateur du fonds Robolution Capital.

Ce Livre blanc du Symop recommande par exemple la création d'un comité national d'éthique de la robotique qui associerait juristes, industriels, sociologues, scientifiques, mais aussi une « boîte noire » sur les robots. pour pouvoir établir les responsabilités, avec un dispositif intégré retraçant l'historique des décisions prises par les robots industriels et de services.

Le Livre Blanc reprend également les travaux actuellement en cours devant la Commission juridique européenne avec notamment le rapport de l'eurodéputée luxembourgeoise, Mady Delvaux qui préconise diverses recommandations concernant les règles de droit civil appliquées à la robotique .

C'est ainsi que les lois de la robotique élaborées par Isaac Asimov pourraient se retrouver dans une proposition de résolution du Parlement européen. 

Rappelons ces lois fondamentales:

(1) Un robot ne peut attenter à la sécurité d'un être humain, ni, par inaction, permettre qu'un être humain soit mis en danger.

(2) Un robot doit obéir aux ordres d'un être humain, sauf si ces ordres entrent en conflit avec la première loi.

(3) Un robot doit protéger sa propre existence tant que cela n'entre pas en conflit avec la première ou la deuxième loi. (Voir I. Asimov, Cercle vicieux (Runaround, 1942)).

(0) Un robot ne peut faire de mal à l'humanité, ni, par inaction, permettre que l'humanité soit mise en danger

L'humanité se trouve en effet à l'aube d'une ère où les robots, les algorithmes intelligents, les androïdes et les autres formes d'intelligence artificielle, de plus en plus sophistiqués, semblent être sur le point de déclencher une nouvelle révolution industrielle qui touchera très probablement toutes les couches de la société.

A court ou moyen terme, la robotique et l'intelligence artificielle promettent une grande efficacité et des économies conséquentes, non seulement dans la production et le commerce, mais également dans des domaines tels que le transport, les soins médicaux, l'éducation et l'agriculture, tout en permettant d'éviter d'exposer des êtres humains à des conditions dangereuses, par exemple lors des opérations de nettoyage de sites pollués par des substances toxiques; qu'à long terme, il serait possible d'accéder à une prospérité quasiment illimitée.

Dans le même temps, le développement de la robotique et de l'intelligence artificielle pourrait avoir pour conséquence l'accomplissement par des robots d'une grande partie des tâches autrefois dévolues aux êtres humains; que cette hypothèse s'avère préoccupante pour l'avenir de l'emploi et la viabilité des régimes de sécurité sociale, si l'assiette de contributions actuelle est maintenue; qu'elle pourrait déboucher sur un creusement des inégalités dans la répartition des richesses et de l'influence

Existent d'autres sujets de préoccupation, tels que la sécurité physique, par exemple en cas de défaillance du programme d'un robot, ou encore les conséquences possibles d'une défaillance du système ou du piratage de robots connectés et de systèmes robotiques à une époque où des applications de plus en plus autonomes sont utilisées, ou le seront bientôt, qu'il s'agisse de véhicules, de drones, de robots de soins à la personne ou de robots utilisés à des fins de maintien de l'ordre et de fonctions de police

Il faut donc pour le législateur examiner toutes les conséquences d'une telle révolution.

"Je ne suis pas favorable à ce que nous produisions une loi spécifique pour la robotique mais il faut répondre aux urgences réglementaires. Pour le moment la grande urgence, ce sont les voitures autonomes, qui sont déjà sur les routes, et les drones", a récemment commenté Mady Delvaux (http://www.usine-digitale.fr/article/quand-le-droit-des-robots-se-construit-a-bruxelles.N446037)

Jusqu'à ce que les robots deviennent conscients de leur propre existence, ou soient fabriqués ainsi à dessein, si tant est que cela advienne un jour, il y a lieu de considérer les lois d'Asimov comme s'appliquant aux concepteurs, aux fabricants et aux utilisateurs de robots, étant donné que lesdites lois ne peuvent être traduites en langage de programmation.

Il est néanmoins nécessaire de définir une série de règles, notamment en matière de responsabilité et de déontologie.

Plus un robot est autonome, moins il peut être considéré comme un simple outil contrôlé par un autre acteur (le fabricant, le propriétaire, l'utilisateur, etc.).

Dès lors, les règles ordinaires en matière de responsabilité s'avèrent insuffisantes, et il y aura lieu d'adopter de nouvelles règles permettant d'imputer (totalement ou partiellement) à une machine ses actes ou son inaction et par conséquent, il devient impérieux, selon Mady Delvaux, de trancher la question fondamentale de l'octroi ou non aux robots d'une personnalité juridique.

Le rapport européeen préconise donc:

- que la Commission propose une définition européenne commune des différentes catégories de robots autonomes et intelligents, compte étant tenu des caractéristiques suivantes des robots intelligents (acquisition d'autonomie grâce à des capteurs et/ou à l'échange de données avec l'environnement et interconnectivité); échange et analyse de données, capacité d'auto-apprentissage, présence d'une enveloppe physique, adaptation du comportement et des actes à l'environnement)

- la création d'un registre des robots avancés,

- la mise au point d'un cadre éthique pour la conception, la fabrication et l'utilisation des robots qui complète utilement les recommandations juridiques du présent rapport ainsi que l'acquis national et de l'Union existant; propose, en annexe à la présente résolution, un tel cadre, sous forme de charte établissant un code de conduite pour les ingénieurs en robotique, une déontologie pour les comités d'éthique de la recherche lorsqu'ils examinent les protocoles de robotique, et un ensemble de licences-type pour les concepteurs et les utilisateurs,

- la création d'une agence européenne pour la robotique et l'intelligence artificielle,

- l'adoption d'une approche équilibrée en matière de droits de propriété intellectuelle et l'introduction, en accord avec les principes de nécessité et de proportionnalité, de garanties de protection de la vie privée et des données lors de l'élaboration de toute politique de l'Union en matière de robotique

Par ailleurs, la responsabilité civile des robots étant une question cruciale de réflechir, face à la complexité de l'imputabilité des dommages causés par des robots de plus en plus autonomes, à la mise en place d'un régime d'assurance obligatoire. Mais également, la création d'un numéro d'immatriculation individuel, inscrit dans un registre spécifique de l'Union, afin de pouvoir toujours associer un robot au fonds dont il dépend; ce numéro permettrait à toute personne interagissant avec le robot de connaître la nature du fonds, les limites en matière de responsabilité en cas de dommages matériels, les noms et les fonctions des contributeurs et toute autre information pertinente.

Enfin, est évoquée la création d'une personnalité juridique spécifique aux robots, pour qu'au moins les robots autonomes les plus sophistiqués puissent être considérés comme des personnes électroniques dotées de droits et de devoirs bien précis, y compris celui de réparer tout dommage causé à un tiers; serait considéré comme une personne électronique tout robot qui prend des décisions autonomes de manière intelligente ou qui interagit de manière indépendante avec des tiers.

Le rapport Delvaux devrait être débattu en commission parlementaire le 12 décembre 2016 et voté en plénière début 2017.

(Source: Livre blanc Symop du 25 octobre 2016 http://www.symop.com/wp-content/uploads/2016/10/LivreBlanc_Robotique_symop_BD.pdf et projet de rapport Delvaux du 31 mai 2016)

Repost 0
Published by thierry vallat - dans droit des Robots
commenter cet article
10 octobre 2016 1 10 /10 /octobre /2016 05:24
Le juge est un robot: les dangers de la justice prédictive

En reprenant dans ce titre la notion de ""juge-robot" évoquée par le Professeur Bruno Dondero dans son article de juillet 2014 " Mon juge est un robot – la justice automatisée ", c'est tout le débat autour de la justice prédictive qui est circonscrit, et avec lui cette possibilité d’automatisation de la justice qui serait désormais envisageable avec les algorithmes adéquats.

A l'heure où plusieurs sociétés se font fort d'évaluer les chances de gagner votre procès ou de quantifier les montants des condamnations à la clé de votre litige, la notion d'aléa judiciaire serait-elle donc en voie d'extinction ?

Est-il souhaitable de voir les machines se substituer au juge ou la robotisation judiciaire nous conduira-t-elle inéluctablement vers une justice dystopique avec ses juges automates évoqués par Cesare Beccaria ?

L'idée de la justice prédictive est simple et repose sur le postulat que peut être anticipé le résultat d'une procédure grâce à la puissance de calcul de solutions informatisées agrégeant des milliers des décision de tribunaux et cours combinées avec les paramètres spécifiques d'une affaire (lieu du procès, age des parties, ancienneté, niveau scolaire, adresse, etc.).

Ainsi, une procédure prud'homale pourrait-elle être pré-déterminée tant en probabilité d'aboutir au jugement escompté qu'à une fourchette des dommages et intérêts alloués, dans une procédure de licenciement abusif par exemple.

Mais de même, serait-il également possible pour un futur délinquant d'optimiser ses chances d'obtenir une éventuelle condamnation plus légère en fonction du lieu de son forfait ou du montant de son larcin en connaissant par avance la plus grande mansuétude des juges locaux, et donc pouvant à loisir choisir le lieu du crime le plus adapté !

Aux Etats-Unis, généralement précurseurs en matière d'innovations technologiques, certains procureurs se dont d'ores et déjà dotés de tels logiciels prédictifs afin d'évaluer les risques de poursuivre ou non tel suspect ou de transiger si les occurrences leur paraissent moins favorables, voire à abandonner les poursuites.

Il existe également des algorithmes prédictifs utilisés par des juridictions locales chargés d'évaluer les risques de récidive des prévenus. Ils sont présentés comme de véritables outils d'aide à la décision pour les magistrats devant décider d’une mise en liberté sous caution ou d’une condamnation, en fonction du taux de récidive potentiel.

Une récente enquête de ProPublica publié en mai 2016 aboutit cependant à des résultats édifiants, puisque reflètant de manière incroyablement erronée le risque de commission d’un crime violent prédit par la machine: seulement 20 % des personnes dont le logiciel estimait qu’elles commettraient un crime violent l’ont fait.

C'est aussi faire bien peu de cas du facteur humain omniprésent dans le procès, que ce soit de la part des membres de l'institution judiciaire que du talent des avocats (si, si...) et de leur connaissance des arcanes de la procédure par exemple, même si des avocats-robots commencent à arriver dans nos cabinets (lire notre article: Les Robots-avocats trouvent du travail: Maître Ross Watson, premier ...) et si les intelligences artificielles deviennent plus présentes dans les domaines juridiques.

Une aide à la stratégie sans doute, au mieux du droit computationnel, mais certainement pas la panacée technologique avancée pour promouvoir ces solutions informatiques.

Et malheureusement, il est à craindre que ce type d'outils informatiques standardisés, créés de surcroît avec une méthodologie pour le moment peu transparente, ne nous éloigne encore davantage d'une justice individualisée et équitable, et qu’ils n'augmentent encore plus les injustices et les inégalités qui existent déjà dans notre système judiciaire et notre société.

Nous sommes encore très loin de "Minority report" (et c'est tant mieux)

Repost 0
Published by thierry vallat - dans droit des Robots
commenter cet article
10 septembre 2016 6 10 /09 /septembre /2016 05:01

Est-ce que la technologie pourra nous sauver d’un avenir dystopique, ou contribuera-telle à en créer un ?

La surveillance, les outils de communications et leur évolution frénétique, les robots, les drones ont été évoqués.

J'ai débattu avec François-Bernard Huyghe Directeur de recherche à l'Institut de Relations Interationales et Startégiques IRIS sur ce thème passionnant, débat arbitré par Rachel Marsden le 9 septembre 2016 sur Sputnik News:

Retrouvez le podcast du débat:

Repost 0
8 août 2016 1 08 /08 /août /2016 07:11
Les tests de voitures autonomes autorisés sur les routes en France: notre article publié dans le Village de la Justice

La France autorise enfin par l'ordonnance du 3 août 2016 l’expérimentation des voitures autonomes sur ses routes.

Les tests de voitures sans chauffeur ou « voitures autonomes » sont en effet désormais autorisés sur les routes françaises par cette ordonnance qui permet "l'expérimentation de véhicules à délégation de conduite sur les voies publiques".

Retrouvez notre article publié par le Village de la Justice du 8 août 2016: http://www.village-justice.com/articles/France-autorise-enfin-par-ordonnance-experimentation-des-voitures-autonomes-sur,22785.html

Les tests de voitures autonomes autorisés sur les routes en France: notre article publié dans le Village de la Justice
Repost 0
11 juillet 2016 1 11 /07 /juillet /2016 04:42
Concilier valeurs morales et intérêts personnels: le futur choix cornélien de la voiture autonome

Le récent accident mortel de la voiture autonome Tesla survenu le 30 juin 2016 en Floride a rendu l'étude de 3 chercheurs publiée dans la prestigieuse revue Science du 24 juin 2016 encore plus passionnante (http://science.sciencemag.org/content/352/6293/1573)

Selon le toulousain Jean-François Bonnefon et ses acolytes Azim Shariff et Iyad Rahwan, les véhicules autonomes devraient singulièrement réduire les accidents, mais devront effectuer des choix cornéliens permanents entre deux options, comme celle de choisir d'écraser des piétons plutôt que de se sacrifier avec ses passagers pour sauver lesdits piétons.

Il existe en effet selon ce rapport deux types de programmation possibles pour l'intelligence artificelle de ces robots roulants.

Une voie dite " utilitariste" qui correspond à un véhicule privilégiant la sécurité du plus grand nombre. L’autre, dite "égoïste", privilégie pour sa part la sécurité individuelle du passager.

Le dilemme ? Au cours de leurs travaux, les chercheurs ont découvert que les participants de six études expérimentales de Amazon Mechanical Turk ont avoué préférer le véhicule utilitariste lorsqu’il s’agit des autres; mais à l’inverse, quand il s’agit de leur propre véhicule, ils ont majoritairement opté pour l’option égoïste et préféreraient être à bord d'une voiture qui protégerait ses passagers à n'importe quel prix.

Cornélien on vous a prévenu !

Il ne s'agit, ni plus ni moins que la transposition du célèbre paradoxe du Trolley décrit pour la première fois par Philippa Foot en 1967: est-il moral pour une personne d'effectuer un geste qui bénéficiera à un groupe de personnes A, mais, qui pourrait, ce faisant dans ces circonstances, nuire à une personne B ?

Dans le cas de l'accident du véhicule Tesla, il s'agissait semble-t-il d'un problème d'absence de déclenchement des freins à l'approche d'un semi-remorque avec des capteurs qui auraient été trompés par le soleil et la couleur blanche du camion.

Reste la lancinante question: qui est responsable quand une voiture conduite par une intelligence artificielle, et donc un algorithme, provoque l'accident ?

Aujourd'hui, selon la Convention de Vienne applicable, c'est le conducteur qui est supposé responsable.

Tel est d'ailleurs le résultat d'un petit sondage personnel effectué sur Tweeter dans lequel les personnes interrogées incriminent plutôt le conducteur à 41 % (mais Obi Wan Kanobi n'est pas loin il est vrai) et le concepteur de l'algorithme à seulement 14 %.

Mais demain, l'intelligence artificielle pourrait être par défaut la responsable sans faute dans l'hypothèse de tels accidents causés par des robots roulants autonomes.

Concilier valeurs morales et intérêts personnels: le futur choix cornélien de la voiture autonome
Repost 0
Published by thierry vallat - dans droit des Robots
commenter cet article
23 juin 2016 4 23 /06 /juin /2016 07:07

Mise à jour du 16 février 2017

Le droit des robots est en marche.

Pensiez-vous un jour retrouver les lois de la robotique élaborées par Isaac Asimov dans une proposition de résolution du Parlement européen ? Et bien non, ce n'est pas de la science-fiction: elles figurent en bonne place (page 5/24) dans le rapport Delvaux qui envisage de soumettre à la Commission juridique européenne des recommandations concernant les règles de droit civil sur la robotique.

Rappelons ces lois fondamentales:

(1) Un robot ne peut attenter à la sécurité d'un être humain, ni, par inaction, permettre qu'un être humain soit mis en danger.

(2) Un robot doit obéir aux ordres d'un être humain, sauf si ces ordres entrent en conflit avec la première loi.

(3) Un robot doit protéger sa propre existence tant que cela n'entre pas en conflit avec la première ou la deuxième loi. (Voir I. Asimov, Cercle vicieux (Runaround, 1942)).

(0) Un robot ne peut faire de mal à l'humanité, ni, par inaction, permettre que l'humanité soit mise en danger

L'eurodéputée luxembourgeoise, Mady Delvaux rapporteure du projet, fixe d'emblée les enjeux: l'humanité se trouve à l'aube d'une ère où les robots, les algorithmes intelligents, les androïdes et les autres formes d'intelligence artificielle, de plus en plus sophistiqués, semblent être sur le point de déclencher une nouvelle révolution industrielle qui touchera très probablement toutes les couches de la société.

A court ou moyen terme, la robotique et l'intelligence artificielle promettent une grande efficacité et des économies conséquentes, non seulement dans la production et le commerce, mais également dans des domaines tels que le transport, les soins médicaux, l'éducation et l'agriculture, tout en permettant d'éviter d'exposer des êtres humains à des conditions dangereuses, par exemple lors des opérations de nettoyage de sites pollués par des substances toxiques; qu'à long terme, il serait possible d'accéder à une prospérité quasiment illimitée.

Dans le même temps, le développement de la robotique et de l'intelligence artificielle pourrait avoir pour conséquence l'accomplissement par des robots d'une grande partie des tâches autrefois dévolues aux êtres humains; que cette hypothèse s'avère préoccupante pour l'avenir de l'emploi et la viabilité des régimes de sécurité sociale, si l'assiette de contributions actuelle est maintenue; qu'elle pourrait déboucher sur un creusement des inégalités dans la répartition des richesses et de l'influence

Le rapport rappelle également qu'existent d'autres sujets de préoccupation, tels que la sécurité physique, par exemple en cas de défaillance du programme d'un robot, ou encore les conséquences possibles d'une défaillance du système ou du piratage de robots connectés et de systèmes robotiques à une époque où des applications de plus en plus autonomes sont utilisées, ou le seront bientôt, qu'il s'agisse de véhicules, de drones, de robots de soins à la personne ou de robots utilisés à des fins de maintien de l'ordre et de fonctions de police

Il faut donc pour le législateur examiner toutes les conséquences d'une telle révolution.

Pour la rapporteure, jusqu'à ce que les robots deviennent conscients de leur propre existence, ou soient fabriqués ainsi à dessein, si tant est que cela advienne un jour, il y a lieu de considérer les lois d'Asimov comme s'appliquant aux concepteurs, aux fabricants et aux utilisateurs de robots, étant donné que lesdites lois ne peuvent être traduites en langage de programmation.

Il est néanmoins nécessaire de définir une série de règles, notamment en matière de responsabilité et de déontologie.

Plus un robot est autonome, moins il peut être considéré comme un simple outil contrôlé par un autre acteur (le fabricant, le propriétaire, l'utilisateur, etc.).

Dès lors, les règles ordinaires en matière de responsabilité s'avèrent insuffisantes, et il y aura lieu d'adopter de nouvelles règles permettant d'imputer (totalement ou partiellement) à une machine ses actes ou son inaction et par conséquent, il devient impérieux, selon Mady Delvaux, de trancher la question fondamentale de l'octroi ou non aux robots d'une personnalité juridique.

Le rapport préconise donc:

- que la Commission propose une définition européenne commune des différentes catégories de robots autonomes et intelligents, compte étant tenu des caractéristiques suivantes des robots intelligents (acquisition d'autonomie grâce à des capteurs et/ou à l'échange de données avec l'environnement et interconnectivité); échange et analyse de données, capacité d'auto-apprentissage, présence d'une enveloppe physique, adaptation du comportement et des actes à l'environnement)

- la création d'un registred es robots avancés,

- la mise au point d'un cadre éthique pour la conception, la fabrication et l'utilisation des robots qui complète utilement les recommandations juridiques du présent rapport ainsi que l'acquis national et de l'Union existant; propose, en annexe à la présente résolution, un tel cadre, sous forme de charte établissant un code de conduite pour les ingénieurs en robotique, une déontologie pour les comités d'éthique de la recherche lorsqu'ils examinent les protocoles de robotique, et un ensemble de licences-type pour les concepteurs et les utilisateurs,

- la création d'une agence européenne pour la robotique et l'intelligence artificielle,

- l'adoption d'une approche équilibrée en matière de droits de propriété intellectuelle et l'introduction, en accord avec les principes de nécessité et de proportionnalité, de garanties de protection de la vie privée et des données lors de l'élaboration de toute politique de l'Union en matière de robotique

Par ailleurs, la responsabilité civile des robots étant une question cruciale de réflechir, face à la complexité de l'imputabilité des dommages causés par des robots de plus en plus autonomes, à la mise en place d'un régime d'assurance obligatoire. Mais également, la création d'un numéro d'immatriculation individuel, inscrit dans un registre spécifique de l'Union, afin de pouvoir toujours associer un robot au fonds dont il dépend; ce numéro permettrait à toute personne interagissant avec le robot de connaître la nature du fonds, les limites en matière de responsabilité en cas de dommages matériels, les noms et les fonctions des contributeurs et toute autre information pertinente.

Enfin, est évoquée la création d'une personnalité juridique spécifique aux robots, pour qu'au moins les robots autonomes les plus sophistiqués puissent être considérés comme des personnes électroniques dotées de droits et de devoirs bien précis, y compris celui de réparer tout dommage causé à un tiers; serait considéré comme une personne électronique tout robot qui prend des décisions autonomes de manière intelligente ou qui interagit de manière indépendante avec des tiers.

Voilà qui va ravir les tenants de la personnalité robot au premier rang desquels notre confrère Alain Bensoussan, président de l'Association de droit des robots ADDR, qui milite de longue date en ce sens.

Google a aussitôt réagi et formulé 5 lois pour l'intelligence artificielle http://9to5google.com/2016/06/22/google-safe-ai-rules/ sur lesquelles nous allons bien sur revenir

(Source: projet de rapport Delvaux du 31 mai 2016)

mise à jour du 16 février 2017

Les parlementaires européens ont voté sur le statut légal des robots http://www.europarl.europa.eu/news/fr/news-room/20170109STO57501/cette-semaine-au-parlement-migration-robotique-commissaire-g%C3%BCnther-oettinger

Le Parlement européen a ainsi adopté jeudi 16 février 2017 le rapport porté par l'eurodéputée luxembourgeoise Mady Delvaux Mais la partie du texte qui proposait l'instauration d'une «taxe robot» destinée à financer un revenu universel en compensation de la perte de travail consécutive à l'utilisation des robots dans l'économie a été rejetée par les députés européens.

Le texte va encore être évalué ces prochains mois avant de revenir devant le Parlement. European parliament calls for robot law, rejects robot tax

Vers la création d'une personnalité juridique électronique: le Parlement européen planche sur l'adaptation des règles de droit civil à la robotique
Repost 0
Published by thierry vallat - dans droit des Robots
commenter cet article
11 juin 2016 6 11 /06 /juin /2016 06:25
La première police d'assurance pour voiture autonome est lancée par un assureur anglais

C'est une première mondiale: la voiture autonome se dote d'une assurance dédiée grâce à la compagnie anglaise Adrian Flux qui vient d'annoncer avoir lancé la première police pour véhicules sans conducteur (https://www.adrianflux.co.uk/driverless-car-insurance/)

Rappelons qu'une voiture autonome est un véhicule susceptible de rouler automatiquement et en toute autonomie dans le trafic réel et sur une infrastructure non spécifique, sans l'intervention d'un humain. Elle constitue l'une des nombreuses applications du domaine du droit des robots.

Une nouvelle règlementation va prochainement voir le jour au Royaume-Uni avec une obligation de couverture des accidents impliquant un véhicule autonome, et donc avec une responsabilité de l'automobile et non du chauffeur.

Ainsi, s'il est démontré que ce sont bien les équipements d'assistance qui ont été défaillants, la responsabilité du conducteur sera exonérée.

La police d'assurance Trinity Lane d'Adrian Flux couvre donc les risques affectant les systèmes de navigation, mais aussi le piratage et le hacking des données du véhicule. Bien entendu, la perte de contrôle et l'impossibilité de reprendre ce dernier manuellement font partie des dommages couverts.

Le développement des voitures autonome est impressionnant et de nombreux constructeurs comme Chrysler, Volvo, PSA ou Google planchent sur ces véhicules robotisés, en phase de tests intensifs.

De nombreuses voitures sont déjà équipées de systèmes comme l'ABS ou l'autoparking, mais certains modèles comme la Tesla 3 ou l'Infinity Q50 de Nissan permettent déjà au conducteur de lacher le volant dans certaines circonstances.

Rappelons qu'en France, avec la Loi sur la transition énergétique: la voiture autonome lancée sur les rails et l'adaptation de la convention de Vienne de mars 2016 ( La modification de la Convention de Vienne sur la circulation routière ...) tous les voyants sont au vert pour la multiplication des phases de test et l'avènement de la voiture autonome pour les particuliers à l'horizon 2020, donc demain.

Aux Etats-Unis, un groupe composé du géant internet Google, du service de réservation de voiture Uber, de son principal concurrent Lyft, ainsi que des constructeurs Ford, et Volvo s'est constitué fin avril 2016 pour influer en vue d'une reglementation fédérale uniforme. On estime à 500 milliards d'euros le marché des voitures autonomes en 2035.

Retrouvez la police Trinity Lane pour voiture autonome: https://www.adrianflux.co.uk/pdfs/documents/driverless-car-insurance-policy-document.p dont les termes et conditions évolueront bien sur en fonction des nombreux débats et changement de réglementation que l'inéluctable apparition de ces machines roulantes dotées d'intelligence artificielle vont générer.

Repost 0
16 mai 2016 1 16 /05 /mai /2016 05:58
Les Robots-avocats trouvent du travail: Maître Ross Watson, premier avocat doté d'une intelligence artificielle embauché chez Baker & Hostetler

Heuristiques et algorithmes au service du droit: et voici Ross, le premier robot-avocat.

Après avoir fait ses gammes auprès du cabinet Dentons, ce juriste pas comme les autres vient d'être engagé par la firme américaine Baker & Hostetler pour y exercer ses talents en matière de procédures collectives et de banqueroutes.

Ross devient ainsi la première intelligence artificielle à officiellement être employée comme avocat.

Développé par IBM à partir de l'ordinateur cognitif Watson, Ross a été conçu pour lire, comprendre, effectuer des recherches et développer des hypothèses afin de répondre en anglais à des questions, d'autant plus efficacement qu'il apprend au fur et à mesure des interactions avec ses collègues (lire: IBM's ROSS becomes world's first artificially intelligent attorney

Et au lieu de vous noyer dans un flot de jurisprudences plus ou moins utiles, on l'annonce comme capable de sélectionner la réponse la plus pertinente au cas considéré.

Bien entendu, le tout en un temps record par rapport à votre stagiaire préféré et sans lésiner sur les heures supplémentaires. L'histoire ne dit pas si ce sympathique confrère robotique remplit lui-même ses time-sheets.

Il n'est cependant pas encore prévu d'envoyer Ross à la barre du tribunal ou assurer les renvois.

Ross n'a même pas la qualité d'avocat d'ailleurs... pour le moment.

La France n'est pas en reste puisque le Cabinet Alain Bensoussan a également intégré depuis plusieurs mois Nao, le robot conçu par Aldébaran, pour son apprentissage de collaborateur au sein de son équipe (http://www.alain-bensoussan.com/nao-lexing-robot/2016/03/31/?utm_source=twitterfeed&utm_medium=twitter&utm_campaign=Feed%3A+alain-bensoussan+%28Alain+Bensoussan+Avocats%29)

Peut-être faudra-t-il lui prévoir un serment adapté, puisque pour rejoindre le Barreau il faut jurer exercer ses fonctions d'avocat "avec dignité, conscience, indépendance, probité et humanité".

"J'ai peur...", soufflait HAL l'ordinateur dans les derniers instants du prémonitoire "2001 l'odyssée de l'espace".

Devons nous pareillement craindre pour l'avenir des professions juridiques ou plutôt nous réjouir de l'aide précieuse que Ross et ses congénères électroniques pourront apporter aux cabinets d'avocats ?

Outre le serment, il faudra sans doute bientôt adapter le règlement intérieur à l'arrivée inéluctable de ces nouveaux confrères-robots.

Repost 0
Published by thierry vallat - dans droit des Robots
commenter cet article

Présentation

  • : Le blog de Thierry Vallat, avocat au Barreau de Paris (et sur Twitter: @MeThierryVallat)
  • Le blog de Thierry Vallat, avocat au Barreau de Paris (et sur Twitter: @MeThierryVallat)
  • : Blog d'actualités juridiques par Maître Thierry Vallat, avocat au Barreau de Paris (33 01 56 67 09 59) cabinet secondaire à Tallinn ISSN 2496-0837
  • Contact

Le Cabinet Thierry Vallat

  0018-BAS-SAT.jpg     

Cabinet Thierry Vallat

50, avenue de la Grande Armée 75017 Paris (cabinet secondaire Pikk 41- 10123 Tallinn)

Tel: 33(0)1.56.67.09.59

mail: thierry.vallat@gmail.com

Activités principales: Droit du travail, droit fiscal, immobilier et copropriété, droit pénal des affaires, banque et contentieux commercial, droit numérique et des robots

Recherche

Dans les médias récemment

Libération du 12 juillet 2017 sur les drones de livraison http://www.liberation.fr/futurs/2017/07/12/vos-achats-livres-par-drone-ce-n-est-pas-pour-tout-de-suite_1583307

France Soir du 7 juillet 2017 sur la règlementation des piscines http://www.francesoir.fr/lifestyle-vie-quotidienne/noyade-quelles-regles-de-securite-pour-les-piscines-en-france-privee-publique-danger-risques-responsabilite-alarme-barriere-couverture-abris-normes-loi-avocat-thierry-vallat

Linfo.re du 12 juin 2017 sur les déclarations de revenus http://www.linfo.re/france/societe/720805-declaration-de-revenus-ce-qu-il-faut-faire-en-cas-d-oubli-ou-d-erreur

L'Express du 31 mai 2017 sur l'affaire Ferrand http://www.lexpress.fr/actualite/societe/justice/affaire-ferrand-pourquoi-la-justice-n-ouvre-pas-d-enquete-pour-l-instant_1913481.html

Libération du 30 mai 2017 Peut-on se promener en maillot de bain en ville http://www.liberation.fr/france/2017/05/30/a-t-on-le-droit-de-bronzer-en-maillot-de-bain-en-ville_1573287

France Soir du 29 mai 2017: surbookings quels sont vos droits ? http://www.francesoir.fr/lifestyle-vie-quotidienne/surbooking-votre-avion-est-surbooke-quels-sont-vos-droits-compagnies-aeriennes-indemnisations-loi-droit-r%C3%A8gles-avocat-thierry-vallat-montant-remboursement

France Soir du 25 mai 2017 travaux, caution DG sortie du locataire quels recours ? http://www.francesoir.fr/lifestyle-vie-quotidienne/appartement-depart-sortie-travaux-caution-etat-des-lieux-que-faire-en-cas-de-litige-locataire-proprietaire-regles-droit-avocat-thierry-vallat-loi-recours

Sputnik News du 19 mai 2017 sur l'amende infligée à Facebook par la Commission européenne https://fr.sputniknews.com/international/201705191031458040-facebook-amende-argent/

France Inter du 19 mai 2017 sur les livraisons par drones d'Amazon

BFMTV du 9 mai 2017 sur la légalité de l'allaitement en public http://www.bfmtv.com/international/une-elue-australienne-allaite-son-bebe-au-parlement-serait-ce-possible-en-france-1160372.html

Runway Magazine du 7 mai 2017 sur le décret sur les photos retouchées de mannequins http://runwaymagazines.com/new-fashion-law/

Figaro du 6 mai 2017 sur le délit de diffusion de fake news http://www.francesoir.fr/politique-france/presidentielle-bureaux-de-vote-ce-qui-est-autorise-ce-qui-est-interdit-election-scrutin-regles-loi-droit-thierry-vallat?platform=hootsuite

France Soir du 6 mai 2017 sur le fonctionnement des bureaux de vote http://www.francesoir.fr/politique-france/presidentielle-bureaux-de-vote-ce-qui-est-autorise-ce-qui-est-interdit-election-scrutin-regles-loi-droit-thierry-vallat?platform=hootsuite

L'Express du 4 mai 2017 sur l'article 97 du code electoral http://www.lexpress.fr/actualite/politique/elections/compte-aux-bahamas-pourquoi-marine-le-pen-n-est-pas-inquietee-par-l-enquete_1905248.html

L'Express entreprise du 29 avril 2017 sur l'interdiction du vapotage au travail http://lentreprise.lexpress.fr/rh-management/droit-travail/vapoter-au-travail-sera-interdit-le-1er-octobre-2017_1903561.html

France Soir du 23 avril 2017 sur l'annulation de l'élection présidentielle http://www.francesoir.fr/politique-france/peut-annuler-election-presidentielle-resultats-fraude-scrutin-vote-conseil-constitutionnel-thierry-vallat-avocat-droit-loi

France Soir du 20 avril 2017 sur le report de l'election présidentielle http://www.francesoir.fr/politique-france/election-presidentielle-pourrait-elle-etre-reportee-report-premier-tour-empechement-candidat-thierry-vallat-avocat-mort-attentat-retrait

France Soir du 19 avril 2017 sur les sondages en période électorale http://www.francesoir.fr/politique-france/presidentielle-les-regles-relatives-aux-sondages-pendant-la-campagne-officielle-marge-erreur-candidats-medias-premier-second-tour-droit-regles-loi-avocat-thierry-vallat-fiabilite-csa-internet-en-ligne

France Soir du 7 avril 2017 sur les emplois fictifs présumés du FN http://www.francesoir.fr/politique-france/emplois-fictifs-front-national-fn-presumes-au-conseil-regional-du-nord-pas-de-calais-que-risquent-david-rachelin-enquete-premiminaire-poursuites-peines-avocat-thierry-vallat

France Soir du 14 mars 2017 sur le port du foulard au travail http://www.francesoir.fr/societe-faits-divers/port-du-voile-au-travail-laicite-et-discriminations-la-justice-europeenne-tranche-foulard-loi-droit-cjue-avocat-thierry-vallat-islam-religions?platform=hootsuite

Radio Orient du 14 mars 2017 itw sur l'interdiction du port du voile en entreprise http://www.radioorient.com/cour-europeenne-une-entreprise-peut-interdire-le-port-de-signes-religieux/

France Soir du 11 mars 2017 sur la violation du secret de l'instruction http://www.francesoir.fr/politique-france/penelopegate-qu-est-ce-que-la-violation-du-secret-de-instruction-francois-fillon-penelope-parquet-national-financier-pnf-juges-avocats-thierry-vallat-droit-proc%C3%A9dure

Sputnik News du 10 mars 2017 débat sur l'intelligence artificielle https://fr.sputniknews.com/radio_desordre_mondial/201703101030396959-intelligence-artificielle/

Agefi Actifs du 3 mars 2017 sur l'affaire Apollonia http://www.agefiactifs.com/droit-et-fiscalite/article/affaire-apollonia-letau-se-resserre-autour-des-76473

France Soir du 1er mars 2017 sur le droit à l'oubli sur internet http://www.francesoir.fr/lifestyle-vie-quotidienne-droit-oubli-sur-internet-comment-marche-le-droit-au-dereferencement-moteur-recherche-google-vie-prive-referencement-lois-cnil-europe-justice-droit-thierrry-vallat-avocat-disparaitre

Journal du Management juridique n°55 du 28 février 2017 sur l'obligation de l'employeur de dénoncer ses salariés chauffards http://fr.calameo.com/read/000000178bf08874a4147

L'Opinion du 23 février 2017 sur la plainte pour faux visant Audrey Azoulay http://www.lopinion.fr/edition/politique/ministre-audrey-azoulay-visee-plainte-faux-en-ecriture-publique-120000

France Soir du 22 février 2017 sur la notion de conflit d'intérêt http://www.francesoir.fr/politique-france/affaire-solere-la-notion-de-conflit-interet-en-question-polemique-cadre-legal-loi-thierry-vallat-prise-illegal-interet-fillon-hatvp-cahuzac-deputes-elus

LCI du 17 février 2017 itw sur le slogan en anglais de Paris 2024 http://www.lci.fr/sport/jo-2024-plusieurs-associations-attaquent-le-slogan-en-anglais-de-paris-la-plainte-peut-elle-aboutir-2026377.html

Public Sénat du 14 février 2017 sur le délit de consultation de site terroriste https://www.publicsenat.fr/emission/senat-360/le-nouveau-rendez-vous-de-l-information-senatoriale-53205 

France Soir du 11 février 2017 sur la notion de viol dans l'affaire Théo http://www.francesoir.fr/societe-faits-divers/affaire-theo-aulnay-sous-bois-partir-de-quand-peut-parler-de-viol-violences-loi-droit-avocat-thierry-vallat-policiers-matraque-juge-igpn

BFMTV du 10 février 2017: itw sur les caméras piétons de la police municipale http://www.bfmtv.com/police-justice/cameras-pietons-pour-policiers-un-systeme-anti-violence-et-anti-bavure-1100293.html

France24 du 9 février 2017: itw sur le Parquet national financier http://www.france24.com/fr/20170209-avocats-francois-fillon-penelope-pnf-parquet-national-financier-dessaisir-justice

La Croix du 7 février 2017: itw sur la compétence du Parquet national financier sur l'affaire Fillon http://www.la-croix.com/France/Politique/Le-parquet-national-financier-competent-dans-laffaire-Fillon-2017-02-07-1200823089?utm_medium=Social&utm_campaign=Echobox&utm_source=Twitter&utm_term=Autofeed#/link_time=1486475997

Le Monde du 6 février 2017 itw sur le phishing ou le hameçonnage http://www.lemonde.fr/argent/article/2017/02/06/hameconnage-la-banque-doit-vous-rembourser-si-elle-ne-peut-prouver-votre-negligence_5075315_1657007.html

Libération du 27 janvier 2017 itw sur le sexisme et la modération sur Facebook http://www.liberation.fr/france/2017/01/27/pourquoi-des-feministes-denoncent-la-moderation-de-facebook_1543436

France Soir du 25 janvier 2017 sur les emplois fictifs http://www.francesoir.fr/politique-france/emplois-fictifs-d%C3%A9finition-quelle-peine-encourue-risques-penelope-fillon-fran%C3%A7ois-loi-droit-jurisprudence-thierry-vallat-avocat

Radio Méditerranée Internationale Interview du 23 janvier 2017 sur les vignettes anti-pollution 

Sputnik News du 20 janvier 2017 interview sur le soft power de Facebook https://fr.sputniknews.com/france/201701201029689183-facebook-france-startup/

France Soir du 18 janvier 2017 sur la responsabilité d'EDF en cas de coupures http://www.francesoir.fr/lifestyle-vie-quotidienne/vague-de-froid-quelle-responsabilite-pour-edf-fournisseurs-en-cas-de-coupures-de-courant-electricit%C3%A9-thierry-vallat-droits-lois

Slate du 18 janvier 2017 sur le harcèlement à domicile http://www.slate.fr/story/134768/services-aboli-frontieres-intime

France Soir du 17 janvier 2017: décryptage de l'affaire Buffy Mars http://www.francesoir.fr/societe-faits-divers/sms-de-drague-quelles-sanctions-pour-le-technicien-orange-et-les-harceleurs-de-buffy-mars-harcelement-twitter-facebook-texto

BFMTV du 17 janvier 2017 interview sur la gifle à Manuel Valls et ses conséquences http://www.bfmtv.com/police-justice/manuel-vals-gifle-que-risque-le-jeune-homme-interpelle-1083960.html

Le Parisien du 17 janvier 2017 sur l'affaire Buffy Mars http://www.leparisien.fr/laparisienne/societe/harcelement-une-blogueuse-denonce-puis-se-fait-harceler-sur-twitter-17-01-2017-6579348.php#xtor=AD-1481423553

Le Figaro du 13 janvier 2017 interview sur le fichage illégal des bénévoles de la Croix-Rouge http://www.lefigaro.fr/actualite-france/2017/01/13/01016-20170113ARTFIG00351-quand-la-croix-rouge-fichait-ses-benevoles-en-secret.php

Le Parisien du 7 janvier 2017 interview sur la fermeture du site Babylon 2.0 http://www.leparisien.fr/societe/sur-facebook-babylone-2-0-enfin-ferme-le-groupe-partageait-des-photos-volees-de-femmes-nues-07-01-2017-6538266.php

Neon Mag du 6 janvier 2017 interview sur les groupes Babylon 2.0 et le revengeporn http://www.neonmag.fr/babylone-2-0-le-groupe-facebook-secret-qui-diffuse-des-photos-volees-de-femmes-nues-482095.html

LCI du 28 décembre 2016 interview sur les caméras pour les policiers municipaux http://www.lci.fr/societe/cameras-sur-les-policiers-municipaux-et-les-agents-de-securite-sncf-et-ratp-vous-avez-ete-filme-voici-ce-que-dit-la-loi-2019176.html

Village de la justice du 28 décembre 2016 sur la résurrection numérique et le droit à l'image http://www.village-justice.com/articles/Resurrection-numerique-quelle-legalite-exploitation-image-artiste-mort,23852.html

Sputnik news du 21 décembre 2016 sur le rachat de WhatsApp par Facebook https://fr.sputniknews.com/points_de_vue/201612211029289418-facebook-mensonge-bruxelles/

C8 du 14 décembre 2016 sur la règlementation des drones http://www.c8.fr/c8-docs-mags/pid8478-c8-focus.html

LCI du 30 novembre 2016 sur la surveillance des échanges internet par l'employeur http://www.lci.fr/societe/vie-privee-au-travail-votre-employeur-a-t-il-le-droit-de-surveiller-ce-que-vous-faites-sur-internet-2015021.html

Weka du 16 novembre 2016 sur le rétablissement de l'autorisation de sortie de territoire pour les mineurs http://www.weka.fr/actualite/administration/article/lautorisation-de-sortie-du-territoire-pour-les-mineurs-non-accompagnes-redevient-obligatoire-a-partir-du-15-janvier-2017-44552/

Gameblog du 1er novembre 2016 sur le cadre légal des agressions sexuelles virtuelles http://www.gameblog.fr/news/63348-agressee-sexuellement-en-realite-virtuelle-elle-raconte-son-

Konbini du 21 octobre 2016: interview sur le Cyber-harcèlement http://www.konbini.com/fr/tendances-2/cyberharcelement-marre-etre-victime/

Lexbase Ed Professions du 29 septembre 2016 sur le devoir de conseil des avocats

RTS du 29 septembre 2016: itw sur les actions en justice contre Pokemon Go

Vice News du 20 septembre 2016: que risque l'auteur d'une fausse attaque terroriste ? https://news.vice.com/fr/article/que-risque-lauteur-dune-fausse-alerte-terroriste

BFMTv du 19 septembre 2016: débat sur le swatting http://www.bfmtv.com/mediaplayer/video/fausse-alerte-terroriste-un-adolescent-a-ete-arrete-dans-la-marne-865457.html

L'Express du 12 septembre 2016 sur l'affaire Morandini http://www.lexpress.fr/actualite/medias/jean-marc-morandini-veut-etre-entendu-rapidement-par-la-justice_1829584.html

Sputnik News du 9 septembre 2016 débat sur les nouvelles technologies https://soundcloud.com/sputnik_fr/lancement-de-liphone-7-est-ce-que-la-technologie-nous-sauvera-dun-avenir-dystopique-ou-en-creera-t-elle-un

RMC du 8 septembre 2016: débat sur la lutte contre le sexisme http://rmc.bfmtv.com/mediaplayer/aud

BFMTV du 24 août 2016: interview sur les dangers de PokémonGo au bureau http://www.bfmtv.com/societe/jouer-a-pokemon-go-au-bureau-peut-s-averer-risque-1029223.html

France 3 du 12 août 2016 sur l'affaire Take Eat Easy http://france3-regions.francetvinfo.fr/paris-ile-de-france/paris/paris-la-fronde-des-livreurs-de-repas-velo-1064893.html

Europe 1 du 12 août 2016: interview sur le dossier Take Eat Easy http://www.europe1.fr/emissions/europe-1-bonjour/europe-bonjour-julia-martin-120816-2818891

La Croix du 10 août 2016 sur la requalification des contrats des coursiers à vélo http://www.la-croix.com/Economie/Social/Les-livreurs-de-repas-a-velo-se-rebellent-2016-08-10-1200781385

France Inter du 3 août 216 sur les problèmes juridiques posés par l'appli Périscope https://www.franceinter.fr/emissions/le-debat-de-midi/le-debat-de-midi-03-aout-2016

BFMTV du 28 juillet 2016 sur le harcelement sexuel et le travail dissimulé http://www.bfmtv.com/mediaplayer/video/trois-plaintes-deposees-contre-jean-marc-morandini-846243.html

Les Inrocks du 20 juillet 2016: suite de l'affaire Morandini http://abonnes.lesinrocks.com/2016/07/19/actualite/enquete-pratiques-de-jean-marc-morandini-suite-11854401/

Rue89 L'Obs du 15 juillet 2016 sur la diffusion de contenus choquants sur internet http://rue89.nouvelobs.com/2016/07/15/nice-risquez-si-partagez-photos-victimes-264651

FranceTVInfo du 14 juillet 2016: interview sur l'affaire Morandini http://www.francetvinfo.fr/economie/medias/morandini/affaire-morandini-c-est-du-harcelement-caracterise-affirme-l-avocat-des-acteurs-des-faucons_1546669.html

Les Inrocks du 13 juillet 2016 sur les pratiques de la société de production de JM Morandini http://abonnes.lesinrocks.com/2016/07/12/actualite/enquete-pratiques-de-jean-marc-morandini-11852954/

Sputnik News du 11 juillet 2016 sur le droit à la déconnexion http://Thierry Vallat: Il faudra une charte détaillée qui indique ... - SoundCloud 

Radio Canada du 6 juillet 2016 Interview sur la condamnation de Lionel Messi pour fraude fiscale 

Sputnik News du 5 juillet 2016 sur les déclaration de Manuel Valls sur le dumping social et la directive de 1996 https://soundcloud.com/sputnik_fr/me-thierry-vallat-ca-me-semble-audacieux-de-dire-quon-nappliquerait-pas-la-directive?utm_source=soundcloud&utm_campaign=share&utm_medium=facebook

Slate du 1er juillet 2016 sur Serge Aurier et l'appli Periscope http://www.slate.fr/story/120325/serge-aurier-periscope-paye

Le Journal du Management n°52 (juillet-août 2016): fiscalité des bitcoins et cryptomonnaies http://fr.calameo.com/read/000000178209f1e043d9b

L'Opinion du 15 juin 2016 interview sur les conséquences juridiques du Jasta http://www.lopinion.fr/edition/international/terrorisme-en-voulant-punir-l-arabie-saoudite-senat-americain-provoque-104741?utm_source=twitter&utm_medium=social&utm_content=content&utm_campaign=cm

La Croix du 16 mai 2016 interview sur le litige entre Uber t l'Urssaf sur le statutd des chauffeurs http://www.la-croix.com/Economie/Social/Pour-l-Urssaf-le-chauffeur-Uber-est-un-salarie-2016-05-16-1200760509

Public Sénat du 13 mai sur les dangers de Périscope http://www.publicsenat.fr/lcp/politique/periscope-l-application-sans-limites-1347939

La Croix du 12 mai 2016 interview sur l'appli Periscope http://www.la-croix.com/France/Periscope-questions-apres-drame-2016-05-12-1200759614?utm_medium=Social&utm_source=Twitter&utm_campaign=Echobox&utm_term=Autofeed#/link_time=1463066713

Sputnik News du 10 mai 2016: interview sur le soutien des avocats français à leurs confrères turcs emprisonnés https://soundcloud.com/sputnik_fr/thierry-vallat-lordre-des-avocats-francais-est-solidaire-des-confreres-turcs-arretes

Public Sénat le 14 avril 2016: débat du sur le fichier PNR

20 MInutes du 14 avril 2016: un employeur qui demande un changement de prénom légal ou pas ? http://www.20minutes.fr/economie/1826595-20160414-employeur-demande-salarie-changer-prenom-legal

RMC du 25 mars 2016: interview de jean-Jacques Bourdin sur le fichier PNR http://www.thierryvallatavocat.com/2016/03/mise-en-place-d-un-fichier-pnr-europeen-et-lutte-contre-le-terrorisme-me-thierry-vallat-interroge-sur-rmc-le-25-mars-2016.html

Le Monde du 22 mars 2016: Peut-on être licencié pour utiliser les réseaux sociaux au travail http://www.lemonde.fr/emploi/article/2016/03/22/peut-on-etre-licencie-pour-utiliser-les-reseaux-sociaux-a-titre-personnel-au-travail_4888193_1698637.html

Sputniknews du 11 mars 2016 sur le jugement américan condamnant l'Iran à indeminiser les victimes du 11 septembre https://fr.sputniknews.com/points_de_vue/201603111023300130-iran-usa-11-septembre/

BFM Business du 3 mars 2016 sur l'usage de twitter au travail http://bfmbusiness.bfmtv.com/emploi/tweeter-4-fois-par-jour-au-travail-n-est-pas-un-motif-de-licenciement-957155.html

Ouest France du 25 février 2016 Interdiction du vapotage dans les lieux publics http://www.ouest-france.fr/sante/addictions/tabac/vapotage-linterdiction-recommandee-dans-tous-les-lieux-publics-4056069

Sputniknews du 25 février 2016 sur l'amende fiscale de 1,6 milliard d'€ infligée à Google http://fr.sputniknews.com/points_de_vue/20160226/1022747386/france-google-impots.html#ixzz41XeliIC6

Le Parisien du 21 février 2016 sur le sextorsion http://www.leparisien.fr/faits-divers/les-sextorsions-envahissent-le-net-21-02-2016-5565269.php#xtor=AD-1481423553

Sputnik news du 18 février 2016 sur la légalité du blocage de sites internet http://fr.sputniknews.com/points_de_vue/20160218/1021896666/france-internet-blocage.html

Lexbase (n°641 du 28 janvier 2016): nom de domaine des avocats et art 10.5 du RIN http://images.lexbase.fr/sst/N0913BWQ.pdf

L'Humanité du 12 janvier 2016: le cadre légal du Esport  http://www.humanite.fr/loi-numerique-laddiction-portee-de-clic-595184

Village de Justice du 29 décembre 2015: La France se dote d'une nouvelle règlementation sur les drones civilshttp://www.village-justice.com/articles/France-dote-une-nouvelle,21130.html

La Tribune du 17 décembre 2015 sur l'indemnisation des victimes d'attentat http://www.latribune.fr/economie/france/attentats-de-paris-l-indemnisation-des-victimes-atteindrait-300-millions-d-euros-536831.html

D8 interview pour le magazine "En quête d'actualité" du 16 décembre 2015 : la règlementation des drones http://www.d8.tv/d8-docs-mags/pid5198-d8-en-quete-d-actualite.html?vid=1342386

Lexbase (n°636 du 10 décembre 2015): précisions sur la consultation des pièces pendant la garde à vue http://images.lexbase.fr/sst/N0227BWC.pdf

Village de la Justice du 23 novembre 2015: le droit de l'Esport dans le projet de loi numérique http://www.village-justice.com/articles/droit-sport-dans-Projet-Loi,20900.html

RT France du 10 novembre 2015: arrêt CEDH Dieudonné https://francais.rt.com/france/10045-cour-europeenne-droits-lhomme-rejette

Radio Orient: débat du 5 novembre 2015 sur la réforme du droit du travail http://www.radioorient.com/live/?tab=podcast&id=27826

Lexbase du 15 octobre 2015 sur la fragilisation des droits de la defense pendant la grève des avocats http://images.lexbase.fr/sst/N9379BUW.pdf

L'Express du 2 octobre 2015 sur les amendes pour jets de mégots sur la voie publique: http://votreargent.lexpress.fr/consommation/paris-est-elle-la-seule-ville-concernee-par-l-amende-pour-jet-de-megot_1721944.html

Lexbase du 17 septembre 2015 sur les perquisitions en cabinet d'avocats et l'arrêt CEDH Sérvulo c/Portugal http://www.presentation.lexbase.fr/sites/default/files/actualites/fichiers/lj_625.pdf

Archimag n°287 de septembre 2015: neutralité et loyauté des plateformes numériques http://Numéro 287 : Démat des factures : passage à l'acte

Vice News du 31 août 2015 sur les soupçons de chantage dans l'affaire Eic Laurent/Roi du Maroc https://news.vice.com/fr/article/les-deux-journalistes-francais-accuses-davoir-fait-chanter-le-roi-du-maroc-ont-donne-leur-version-des-faits

Village de la Justice du 21 août 2015: pour un véritable droit au renvoi d'audience http://www.village-justice.com/articles/Pour-veritable-droit-renvoi,20261.html

Version Fémina du 6 juillet 2015 sur les sanctions pour abandon de détritus sur la voie publiques

Lexbase du 2 juillet 2015 sur les honoraires de postulation 

France Info: interview du 10 juin 2015 sur l'interdiction de l'appli Gossip https://www.youtube.com/watch?v=o14NjTYrVVk

Sud Radio: débat du 4 juin 2015 sur portable et harcelement scolaire http://www.sudradio.fr/Podcasts/Seul-contre-tous/Gossip-il-faut-interdire-le-portable-avant-la-fin-du-lycee

L'Obs du 4 juin 2015 sur les drones de l'info

Libération du 3 juin 2015 sur l'application Gossip http://www.liberation.fr/societe/2015/06/03/gossip-l-appli-accusee-de-favoriser-le-harcelement_1322045

Europe 1 Interview du 2 juin 2015 sur le cyber harcèlement http://www.europe1.fr/societe/gossip-lapplication-dans-le-viseur-des-associations-1350076#utm_source=dlvr.it&utm_medium=twitter

Weka du 18 mai 2015: Pollution de l'air procdure d'infraction de la Commission Européenne contre la France http://www.weka.fr/actualite/developpement-durable/article/pollution-lair-particules-fines-procedure-dinfraction-commission-europeenne-contre-france/

La Tribune du 23 avril 2015: "2 ans après le Rana Plaza" interview sur le devoir de vigilance et responsabilité sociétale des entreprises  http://www.latribune.fr/edition-quotidienne/23-04-2015/focus/commerce-ce-que-le-rana-plaza-a-change-1447.html#enrichments_article

Lexbase (n°608 du 9 avril 2015): vers l'élaboration d'un véritable droit des drones http://images.lexbase.fr/sst/N6841BUW.pdf

Metronews du 23 mars 2015: interview sur les poursuites pénales contre les bénéficiaires d'un bug informatique dans une station service http://www.metronews.fr/info/bug-dans-une-station-service-de-l-herault-les-clients-m-insultaient-et-me-bousculaient-pour-pouvoir-faire-le-plein-a-5-euros/mocw!FhNku0n2vQraE/

Expoprotection du 16 mars 2015: "les employeurs condamnés à prévenir le burn-out" http://www.expoprotection.com/?IdNode=1571&Zoom=1fbf527b7549e1ea4635c97e6f06fcc0&Lang=FR

Europe 1: interview du 11 mars 2015 sur le swatting et les risques pénaux encourus http://www.europe1.fr/societe/swatting-que-risquent-les-auteurs-de-ces-canulars-made-in-usa-2396671

Weka du 9 mars 2015 "contrats de génération: un décret du 3 mars 2015 en facilite l'accès" http://www.weka.fr/actualite/emploi/article/contrats-generation-decret-du-3-mars-2015-en-facilite-lacces/

Vice News du 7 mars 2015: interview sur le jugement Facebook du 5 mars 2015 https://news.vice.com/fr/article/facebook-courbet-justice-francaise

LCI (6 mars 2015): interview sur le sexisme au travail http://videos.tf1.fr/infos/2015/le-sexisme-au-travail-redoutable-instrument-d-exclusion-8575434.html

Lexbase (n°603 du 5 mars 2015): braconniers du droit ou plate-forme juridique légale les enseignements du jugement avocat.net http://presentation.lexbase.fr/sites/default/files/actualites/fichiers/lj_603.pdf

Lexbase (n°601 du 12 février 2015): le droit d'accès de l'avocat au dossier complet de l'information http://www.presentation.lexbase.fr/la-lettre-juridique-ndeg601-du-12-fevrier-2015

Metronews du 10 février 2015: interview sur la fraude fiscale après le swissleaks http://www.metronews.fr/info/swissleaks-hsbc-fraudeurs-fiscaux-voici-les-bons-conseils-du-fisc-pour-vous-en-sortir/mobj!HKyMtcffg25A/ 

Vice News du 6 février 2015: interview sur la violation du secret de l'instruction  https://news.vice.com/fr/article/36-quai-orfevres

Lexbase (n°598 du 22 janvier 2015): "menaces de mort à un avocat" http://www.presentation.lexbase.fr/sites/default/files/actualites/fichiers/lj_598.pdf

ETV (14 janvier 2015): intervention dans le reportage du magazine d'information estonien Pealtnägija sur la contrefaçon http://uudised.err.ee/v/majandus/aee45037-b7f0-4356-9044-7277ab86724f

Le Nouvel Economiste du 9 janvier 2015: "défiscalisation immobilière, aides et conseils" http://www.lenouveleconomiste.fr/dossier-art-de-vivre/defiscalisation-immobiliere-aides-et-conseils-25647/

Weka du 15 décembre 2014:"le sandale des dons de RTT encore interdits de fait aux agents publics" http://www.weka.fr/actualite/rh-publiques-thematique_7849/le-scandale-du-don-de-rtt-encore-interdit-de-fait-aux-agents-publics-article_8628/

Le Figaro du 21 novembre 2014: "Crime organisé le nouveau statut des repentis" http://www.lefigaro.fr/actualite-france/2014/11/21/01016-20141121ARTFIG00436-crime-organise-le-nouveau-statut-du-repenti-en-cinq-questions.php

BFM Business l'Atelier numérique du 8 novembre 2014 débat sur la règlementation des drones civils http://bfmbusiness.bfmtv.com/mediaplayer/audio/bfm-0811-atelier-numerique-17h-18h-119937.html

RMC: interview du 31 octobre 2014 sur le démarchage des avocats

BFM Business émission-débat du 21 octobre 2014 sur la pénibilité au travail http://bit.ly/1wsG7lP

ExpoProtection du 13 octobre 2014: "les 6 décrets sur la pénibilité au travail viennent d'être publiés" http://www.expoprotection.com/site/FR/L_actu_des_risques_professionnels_naturels__industriels/Zoom_article,I1571,Zoom-fed7eb81350aeaa93a0129555ee4db66.htm 

Atlantico.fr (23 septembre 2014): interview sur les fraudes aux aides sociales par les britanniques installés en France http://www.atlantico.fr/decryptage/ces-britanniques-installes-en-france-pour-qui-aventure-tourne-au-cauchemar-pauvrete-voire-fraude-catharine-higginson-thierry-1760330.html#3buYAEZKEpoSO7wJ.01

Le Monde du Droit (9 septembre 2014): "faire et défaire la loi ALUR: quelle cohérence ?") http://www.lemondedudroit.fr/decryptages-profession-avocat/194351-faire-et-defaire-la-loi-alur-quelle-coherence-.html

LCP-Public Sénat ( 28 juin 2014): interview sur l'arrêt Baby Loup du 25 juin 2014 e le principe de laïcité https://www.youtube.com/watch?v=1Lui5Cma1lE

Le Figaro (17 juin 2014): interview sur les exonérations de taxe d'habitation http://www.lefigaro.fr/impots/2014/06/17/05003-20140617ARTFIG00302-taxe-d-habitation-les-exonerations-pourraient-faire-augmenter-les-impots.php

Cahiers Lamy du CE (n°138 de juin 2014): "attaques en règle contre le forfait-jours"http://www.wk-rh.fr/preview/BeDhHlEjDiJnIoHkKoHl/presse/cce/les_cahiers_lamy_du_ce_2014/attaques_en_regle_contre_le_forfait_jours__resistera-t-il_au_temps_qui_passe_

BFM TV (31 mai 2014): interview sur Google et le droit à l'oubli numérique https://www.youtube.com/watch?v=Jzyg0eCldiQ

Cahiers Lamy du CE (n°135 de mars 2014) : « vapoter au bureau : vrai droit ou fumeux détournement de la loi Evin ? »http://www.wk-rh.fr/actualites/detail/74306/vapoter-au-bureau-vrai-droit-ou-fumeux-detournement-de-la-loi-evin-.html

Journal du management juridique (mars 2014) : « Intensification de la lutte contre la fraude fiscale » http://issuu.com/legiteam/docs/jmj39/11?e=1003431/7212830

Cahiers Lamy du CE (n°132 de décembre 2013) :   http://www.wk-rh.fr/actualites/detail/71878/que-reste-t-il-du-repos-dominical-en-2013-l-imbroglio-autour-du-travail-le-dimanche.html

Terrafemina du 29 novembre 2013: ''Qu'est-ce que la notion de légitime défense?''  http://www.terrafemina.com/societe/societe/articles/33862-braqueur-tue-a-sezanne-quest-ce-que-la-notion-de-legitime-defense-.html 

TV News du 16 novembre 2013 "Le travail dominical": http://www.youtube.com/watch?v=ixE3IqtIUls

Metronews du 7 novembre 2013 "Il y a urgence à légiférer sur la géolocalisation des portables":http://www.metronews.fr/info/geolocalisation-des-portables-il-y-a-urgence-a-reflechir-a-une-loi/mmkf!XBe1c5mEcyITs/

Droit-Inc du 7 octobre 2013: "démarchage de clientèle: oui ou non ?" http://www.droit-inc.fr/article10825-Demarchage-de-clientele-Oui-ou-non

Europe 1 le 30 septembre 2013: "Travail le dimanche: quel impact économique" http://www.europe1.fr/Economie/Travail-le-dimanche-quel-impact-economique-1657923/

Revue Fémina du 3 au 9 juin 2013: "Accords emplois: ça change quoi ?

Revue Management (mars 2013): Article dans la revue "Management" de mars 2013: "Les contrats de génération: ce qui va changer"    

 

 

 

Le Cabinet En Images

Catégories