Overblog
Suivre ce blog Administration + Créer mon blog
3 août 2020 1 03 /08 /août /2020 14:21

Dans la nuit du vendredi 31 juillet au samedi 1er août 2020, .l’Assemblée nationale a adopté en deuxième lecture le projet de loi bioéthique par 60 voix contre 37 et 4 abstentions, Le texte devra cependant encore repasser devant le Sénat, vraisemblablement en janvier 2021, avant que les parlementaires des deux chambres ne tentent de trouver une version de compromis.

Rappelons que ce projet de loi propose une évolution de notre cadre bioéthique sur 32 de nombreux sujets intéressant l'autoconservation et dons de gamètes, l'accès à la PMA, les dons d'organes, la transmission d'informations génétiques etc.

Il vise également à sécuriser la bonne information du patient lorsqu’un traitement algorithmique de données massives (« intelligence artificielle ») est utilisé à l’occasion d’un acte de soins, avec la garantie d’une intervention humaine.

La constitution de bases de données massives relatives à la santé est en effet désormais possible à partir de données recueillies lors de la prise en charge du patient (à des fins sanitaires et/ou médico-sociales), notamment à travers le système national des données de santé qui va être élargi par la création d’une Plateforme nationale des données de santé , mais également en dehors de toute relation de soins, notamment au travers d’objets connectés.

De nombreuses applications fondées sur l’exploitation des données massives et sur des dispositifs d’intelligence artificielle se développent rapidement dans le secteur sanitaire et médico-social, au niveau de la prise en charge individuelle des personnes.  

L’intelligence artificielle est par exemple mise au service d’outils qui permettent d’améliorer l’efficacité et la précocité des diagnostics, de fournir une aide aux décisions thérapeutiques ou  d’améliorer le suivi de l’évolution de la maladie et la prévention des rechutes.

Des dispositifs robotiques interviennent également de façon efficace dans la réalisation d’actes chirurgicaux.

L’intelligence artificielle est également utilisée au niveau collectif, à des fins de recherche, mais aussi de suivi et d’anticipation des risques sanitaires (par exemple dans l’analyse des signaux faibles en matière de pharmacovigilance ou de suivi épidémiologique), ou encore de pilotage du système de santé, par exemple pour fluidifier les parcours de soins.

Se pose donc non seulement la question de l'information du patient, mais aussi celle de la maîtrise finale des décisions diagnostiques, préventives ou thérapeutiques prises à partir des conclusions tirées par des applications d’intelligence artificielle compte tenu, d’une part, des limites résiduelles des algorithmes utilisés au regard de la variabilité des situations individuelles spécifiques de chaque personne, d’autre part, des conséquences potentielles de ces décisions.

L’article 11 du projet vise ainsi à permettre l'information du patient lorsque l'IA est utilisée à l’occasion d’un acte de soins.

Il était initialement prévu que les patients soient systématiquement informés du recours à l'Intelligence artificielle et notamment de tout "traitement algorithmique de données massives".  Par ailleurs le projet de loi déclinait également la garantie d’une intervention humaine.

Un amendement n°1469 est venu modifier l'article 11, en poursuivant plusieurs objectifs :

- clarifier le périmètre des dispositifs visés par cet article ;

- maintenir l’obligation d’informer le patient avant l’utilisation d’un traitement algorithmique dans le cadre de sa prise en charge médicale ;

- garantir que les résultats issus de ce dispositif sont validés par un professionnel de santé ;

- prévoir la traçabilité des actions et des données afin d’éviter que le dispositif ne fonctionne comme une « boîte noire ».

Un autre amendement n°650 est venu compléter l'alinéa 3 de l'article en précisant que l’hébergement de cette catégorie particulière de données est conditionné par les exigences de l’article L.1111-8 du code de la santé publique qui impose notamment la certification des hébergeurs.

L'article 11 est donc désormais libellé comme suit:

"Le chapitre Ier du titre préliminaire du livre préliminaire de la quatrième partie du code de la santé publique est complété par un article L. 4001‑3 ainsi rédigé :

« Art. L. 4001‑3. – I. – Lorsque, pour des actes à visée préventive, diagnostique ou thérapeutique, est utilisé un traitement algorithmique dont l’apprentissage est réalisé à partir de données massives, le professionnel de santé qui décide de cette utilisation s’assure que la personne concernée en a été informée au préalable et qu’elle est, le cas échéant, avertie de l’interprétation qui en résulte.

« II. – La traçabilité des actions d’un traitement mentionné au I et des données ayant été utilisées par celui-ci est assurée et les informations qui en résultent sont accessibles aux professionnels de santé concernés.   Les données sont traitées et partagées dans les conditions prévues à l’article L. 1111‑8 du présent code  

« III (nouveau). – Un arrêté du ministre chargé de la santé établit, après avis de la Haute autorité de santé, la liste des types de traitements algorithmiques qui font l’objet de l’information mentionnée au I. Il détermine, après avis de la Commission nationale de l’informatique et des libertés, pour chaque type de traitements, la nature et la durée de conservation des actions et des données dont la traçabilité est prévue au II. " 

Le projet de loi Bioéthique va donc mettre en place un encadrement juridique des traitements algorithmiques de données massives, c'est-à-dire des traitements de données issus de l’intelligence artificielle, lorsqu'ils sont utilisés pour des actes à visée préventive, diagnostique ou thérapeutique. Le dispositif repose tout d’abord sur une obligation d'informer la personne de l’utilisation d'un tel traitement algorithmique et de ses modalités d'action. Il n'impose cependant plus l'intervention d'un professionnel de santé pour le paramétrage d'un tel traitement en précisant, comme il en avait été initialement question, que ce paramétrage puisse être modifié par le professionnel de santé. Il prévoit enfin la traçabilité des données utilisées par ces dispositifs et des actions qui en résultent, ainsi que de l’accès à ces informations des professionnels de santé concernés.

Si ces dispositions ne régissent pas les décisions s'imposant aux personnes concernées puisqu’en application de l'article L 1111-4 du code de la santé publique : « Toute personne prend, avec le professionnel de santé et compte tenu des informations et des préconisations qu’il lui fournit, les décisions concernant sa santé », les effets susceptibles de résulter de tels traitements pour les personnes en cause justifient que le principe posé par l'article 22 du règlement (UE) 2016/679 du Parlement européen et du conseil du 27 avril 2016 relatif à la protection des personnes physiques à l'égard du traitement des données à caractère personnel et à la libre circulation de ces données (RGPD) et par l’article 47 de la loi n° 78-17 du 6 janvier 1978 relative à l'informatique, aux fichiers et aux libertés, qui exclut, sauf exceptions, la mise en œuvre d'une décision fondée exclusivement sur un traitement automatisé, soit appliqué en l’espèce.

Consulté pour avis, le Conseil d'Etat avait relevé le 24 juillet 2019 que le projet s’inscrit ainsi dans la ligne suivie par le Conseil d’Etat dans son avis sur le projet de loi d’adaptation au droit de l’Union européenne de la loi n°78-17 du 6 janvier 1978 relative à l’informatique, aux fichiers et aux libertés (Assemblée générale, 7 décembre 2017, 393836) en faveur d’une information de la personne concernée et d’une d’intervention humaine avant la prise d’une décision administrative individuelle sur le fondement d’un algorithme. Le Conseil Constitutionnel a, par une décision n°2018-765 DC du 12 juin 2018, jugé que le législateur a défini des garanties appropriées pour la sauvegarde des droits et libertés des personnes soumises aux décisions administratives individuelles prises sur le fondement d’un algorithme, dès lors que ne peuvent être utilisés, comme fondement exclusif de cette décision, des algorithmes « susceptibles de réviser eux-mêmes les règles qu’ils appliquent, sans le contrôle et la validation du responsable du traitement ».

Rendez-vous donc en janvier 2021 pour la suite du processus législatif au Sénat et de possibles modifications de l'article 11

(crédits dessin: Cabinet Thierry Vallat)

Partager cet article

Repost0
4 juillet 2020 6 04 /07 /juillet /2020 08:19
Depuis le 1er septembre 2017, en application de la loi pour une République numérique du 7 octobre 2016 (dite Loi Lemaire), toutes les décisions administratives prises « sur le fondement d'un traitement algorithmique » doivent être accompagnées d’une « mention explicite ».
 
L'article L 311-3-1 du CRPA dispose donc:
 
"Sous réserve de l'application du 2° de l'article L. 311-5, une décision individuelle prise sur le fondement d'un traitement algorithmique comporte une mention explicite en informant l'intéressé. Les règles définissant ce traitement ainsi que les principales caractéristiques de sa mise en œuvre sont communiquées par l'administration à l'intéressé s'il en fait la demande. "
 
et l'article R 311-1-3-1-1 prévoit que "La mention explicite prévue à l'article L. 311-3-1 indique la finalité poursuivie par le traitement algorithmique. Elle rappelle le droit, garanti par cet article, d'obtenir la communication des règles définissant ce traitement et des principales caractéristiques de sa mise en œuvre, ainsi que les modalités d'exercice de ce droit à communication et de saisine, le cas échéant, de la commission d'accès aux documents administratifs, définies par le présent livre."
 
L’administration doit donc:
 
-Intégrer une « mention explicite » informant l’usager que la décision qui le concerne a été prise sur le fondement d’un traitement algorithmique, et qu’il a donc le droit de savoir quelles sont les « principales caractéristiques » de mise en œuvre de ce programme.
-Expliquer, sur sa demande, comment fonctionne l’algorithme utilisé.
 
Mais cette loi Lemaire n’était en réalité pas appliquée, sauf par l'Education nationale (avec le système d’affectation des lycéens Affelnet)
 
Et c’est pourquoi ce fut lors du débat sur la loi sur la protection des données personnelles de 2018 qu’un amendement sénatorial est intervenu pour « relancer la machine  », finalement accepté par le gouvernement mais en en repoussant les effets de la nullité au 1er juillet 2020 et en limitant cette nullité automatique aux décisions 100 % automatisées.
 
Dès lors depuis le 1er juillet 2020 en effet, en l’absence de « mention explicite », les décisions concernées doivent systématiquement être considérées comme nulles. Mais cette nullité automatique ne prévaudra devant le juge administratif qu’en l’absence de « mention explicite », le seul fait pour l'administration de ne pas répondre aux demandes d’explicitation des citoyens n’étant  passible d’aucune sanction.
 
C’est désormais l’Article 47 De la loi informatique et liberté de 1978 modifié (ancien article 10) qui prévoit cette nullité.
 
Mais il est clair que les administrations et collectivités territoriales ne sont malheureusement toujours pas prêtes pour au moins deux raisons:
 
- une insuffisante acculturation des administrations aux enjeux du numérique qu'elle considèrent comme une charge indûe
- une inadaptation lorsqu'elles confrontées à des difficultés de mise en œuvre de ces nouvelles obligations 
 
Il faudrait bien entendu une parfaite transparence des algorithmes qui serait effectivement de nature à  sécuriser mais force est de constater  que ce principe est difficile à mettre en œuvre par l'Etat à chaque fois qu'il est réclamé. On l'a vu par exemple lors du Grand Débat et les interrogations concernant l'algorithme très opaque ou la mise en place de l'appli StopCovid.
 
Le Conseil constitutionnel s'est prononcé sur ces problématiques et a considéré en 2018 que "Ne peuvent être utilisés, comme fondement exclusif d'une décision administrative individuelle, des algorithmes susceptibles de réviser eux-mêmes les règles qu'ils appliquent, sans le contrôle et la validation du responsable du traitement. »

Sont ainsi posées des bornes au traitement automatisé des impôts et des aides ou de l'admission post-bac, voire aux expériences de justice prédictive qui, précisément, reposent sur ce type d'algorithmes et la porte ouverte aux citoyens qui pourront saisir la justice administrative chaque fois qu'une décision défavorable non motivée ou prise en considération de la personne. 

Me Thierry Vallat a analysé cette disposition pour ZDNET du 3 juillet 2020: Algorithmes : les administrations forcées à plus de transparence

(crédits dessin: Cabinet Thierry Vallat)

Partager cet article

Repost0
24 avril 2020 5 24 /04 /avril /2020 07:05

Prédire où et quand un crime va survenir: la police l'avait rêvé, les logiciels de police prédictive comme CrimeScan ou PredPol le proposent. 

Ringardisés les inspecteurs Columbo et autres détectives, place à l'ère du Minority report de Philippe K Dick, quand la police algorithmique arrive à stopper les criminels avant leur passage à l’acte.

Il s'agit en effet d'algorithmes auto-apprenant qui moulinent le type d'infraction, leur localisation et leur date. Après avoir déterminé les zones géographiques et les horaires où la commission de délits est la plus probable, les données sont transmises aux patrouilles de police afin d’empêcher leur commission. Bien entendu en amont, les concepteurs de ce Big Data de la sécurité publique ont collecté ici et là le maximum de données personnelles pour nourrir leur intelligence artificielle en les croisant avec les fichiers de police.

Utilisés pour la première fois à Los Angeles en Californie en 2013 où ils auraient permis de réduire les cambriolages et depuis très contestés, actuellement en Europe seulement l’Allemagne et l’Angleterre utilisent des systèmes de police prédictive: les allemands avec le logiciel PredPol  et les anglais avec Matrix dans la région du Kent.

En France, tout profilage qui entraînerait une discrimination à l’égard de personnes physiques sur la base de données à caractère personnel qui sont par nature, particulièrement sensibles du point de vue des libertés et des droits fondamentaux, devrait être interdit.

La CNIL définit les algorithmes auto-apprenants comme des algorithmes au comportement évolutif dans le temps, en fonction des données qui leur ont été fournies. « Ces algorithmes « auto-apprenants » relèvent du domaine de recherche des systèmes experts et de l'« intelligence artificielle ». Ils sont utilisés dans un nombre croissant de domaines, allant de la prédiction du trafic routier à l'analyse d'images médicales ». https://www.cnil.fr/fr/definition/algorithme

Rappelons que le Conseil constitutionnel, dans une décision n°2018-765 DC en date du 12 juin 2018 (https://www.conseil-constitutionnel.fr/decision/2018/2018765DC.htm), s’est prononcé pour la première fois sur la question de l’usage des algorithmes auto-apprenants comme fondement d’une décision administrative individuelle. Trois conditions ont été posées : 

- le traitement algorithmique et ses évolutions doivent être maîtrisés et doivent pouvoir être expliqués sous forme intelligible à la personne concernée ;

- toute décision administrative fondée sur un algorithme doit pouvoir faire l’objet d’un recours administratif ;

- l’algorithme ne doit pas porter sur des données sensibles (origine raciale ou ethnique, opinions politiques, convictions religieuses, philosophiques ou syndicale, données génétiques, biométriques, de santé ou relatives à la vie sexuelle ou l’orientation sexuelle d’une personne physique).

Au niveau local, plusieurs collectivités territoriales tentent de mettre en place des systèmes de "vidéosurveillance intelligente" dans l’objectif de renforcer le contrôle des espaces urbains. Marseille et son projet « Big data de la tranquillité publique » lancé en 2016 en est un des exemple les plus marquants (lire notre article Big Data pour la tranquillité publique). Ce projet a été contesté devant le tribunal administratif de la cité phocéenne par la LDH et la Quadrature du net.

Ainsi, si la police prédictive peut représenter un outil de modernisation de l’action des forces de l'ordre, elle attise en même temps un certain nombre de craintes eu égard aux risques qu’elle comporte : atteintes aux libertés fondamentales, faillibilité du système, discriminations etc. 

La gendarmerie nationale, toujours en pointe de l'innovation, développe une plateforme d’anticipation nommée "PAVED" pour "plateforme d’analyse et de visualisation évolutive de la délinquance", Il s'agit d'une  "plateforme d’analyse décisionnelle" basée sur le principe que les faits passés détermineraient principalement les faits futurs. La gendarmerie s’intéresse plus aux zones de commission des faits de délinquance qu'aux individus et vise donc, par l’analyse prédictive, les secteurs géographiques où se concentrent les délits avec deux composantes entrent dans cette analyse : la saisonnalité et la tendance des faits.

Comme a pu s'interroger Camille Gosselin dans son article sur la police prédictive (https://www.iau-idf.fr/fileadmin/NewEtudes/Etude_1797/Etude_Police_Predictive_V5.pdf) "Au sein des forces de sécurité, l’avenir de l’analyse de la délinquance reposerait-elle principalement sur l’usage d’algorithmes ? Après la police de l’information tournée vers la gestion, la circulation des données et l’usage des technologies de l’information, la police algorithmique serait-elle l’aboutissement « d’une police intelligente », qui aurait su tirer profit des big data pour optimiser ses services face à l’insécurité ? "

Et c'est alors que ce type de dispositif semble avoir le vent en poupe que la police de Los Angeles vient d'annoncer le 21 avril 2020 qu'elle mettait un terme à son programme (lire dans le Los Angeles Times), officiellement pour des raisons budgétaires (affectation des ressources au Covid19). Mais il semblerait que les résultats finalement décevants et potentiellement stigmatisants pour certaines communautés comme les afro-américains,  aient eu raison, pour le moment,  de PredPol, lequel a également été abandonné par plusieurs autres services de police sur le territoire américain.

Alors véritable panacée ou miroir aux alouettes cette police algorithmique ? En tout état de cause, il convient de rester très vigilant aux projets en cours en France afin que la protection de nos si précieuses données personnelles et le respect de nos libertés individuelles ne soient pas sacrifiés sur l'autel de la sécurité publique à tout prix.

Me Thierry Vallat a été interrogé par Marianne le 6 avril 2018 sur la police prédictive http://L'ère de la police prédictive

(crédits dessin: Cabinet Thierry Vallat)

 

Partager cet article

Repost0
19 janvier 2020 7 19 /01 /janvier /2020 09:56

Pour la première fois au monde, une juridiction chinoise a considéré que le travail d'une intelligence artificielle pouvait être protégé par un droit d'auteur.

Le tribunal de Shenzen, dans la province chinoise du Guangdong, vient en effet de juger qu'un article financier écrit par Dreamwriter, un algorithme conçu par le géant Tencent, avait été reproduit sans autorisation .

Cette décision est intervenue après que Tencent ait poursuvi en justice la société Shanghai Yingxun Technology Company, une plateforme en ligne ayant reproduit un article écrit par son robot-journaliste Dreamwriter.

Bien qu'ayant déjà retiré l'article illégalement copié , la Shanghai Yingxun Technology Company a été condamnée à payer une somme de 1,500 yuan ($216) à Tencent au titre de sa perte financière et de la protection du droit d'auteur pour cet article écrit automatiquement le 20 août 2018 par le robot.

Dreamwriter est un programme algorithmique développé par Telcent et qui écrit depuis 2015 des articles financiers.

Le tribunal a reconnu que la forme d'expression contenue dans l'article était conforme aux préconisations d'un véritable travail écrit, contenant des informations pertinentes et une analyse sur les marchés financiers, et qu'en conséquence la structure de l'article démontrait un travail raisonnable, une logique claire et une originalité certaine.

Il s'agit donc d'une première mondiale puisque jamais auparavant que ce soit aux USA, en Australie ou en Europe, le travail d'une IA n'avait été reconnu comme éligible à une protection intellectuelle.

Jusqu'à présent, la protection des œuvres culturelles créées par une machine était systématiquement écartée et elles ne sont pas protégées par des droits d'auteur. Car le robot ne peut prétendre à être considéré comme auteur. Lire notre article Le robot, la musique et les droits d'auteur -

Si au niveau européen, le rapport Delvaux adopté en février 2017 par le Parlement européen avait notamment proposé d'accorder des droits de propriété intellectuelle spécifiques sur les œuvres crées par des intelligences artificielles et de réfléchir aux « critères de "création intellectuelle propre" applicables aux œuvres protégeables par droit d'auteur créées par des ordinateurs ou des robots ».  Aucune suite n'y a été donnée pour le moment (lire notre article  Vers la création d'une personnalité juridique électronique

L’Office européen des brevets vient récemment de rejeter deux demandes de brevets déposées au nom de DABUS, une intelligence artificielle. Dans un communiqué du 20 décembre 2019, l'OEB a en effet annoncé avoir rejeté les deux demandes, l'inventeur devant être un humain et non un algorithme.

“DABUS” était décrite dans le dépôt de brevet comme un "type d'intelligence artificielle connexionniste", c’est-à-dire une machine créative  reposant sur un système de plusieurs réseaux neuronaux capable de générer des idées en modifiant leurs interconnexions.

Après avoir écouté les parties lors d'une audience non publique en date du 25 novembre 2019, l'Office européen des brevets a refusé les brevets  EP 18 275 163 and EP 18 275 174 :

  • le numéro EP 18 275 163 porte sur un type de récipient pour boissons basé sur la géométrie fractale ;
  • le numéro EP 18 275 174 concerne sur un dispositif embarquant une lumière vacillante pour attirer l’attention pendant des opérations de recherche et de sauvetage.

Le débat sur la  reconnaissance des droits de propriété intellectuelle à une intelligence artificielle est donc relancé par ce jugement chinois. Déjà, la protection des œuvres culturelles créées par une machine était écartée et elles ne sont pas protégées par des droits d'auteur. Car le robot ne peut prétendre à être considéré comme auteur. Lire notre article Le robot, la musique et les droits d'auteur -

 

(source: Ecns.cn http://www.ecns.cn/news/2020-01-09/detail-ifzsqcrm6562963.shtml )

(crédits dessin: Cabinet Thierry Vallat)

Partager cet article

Repost0
7 janvier 2020 2 07 /01 /janvier /2020 13:03

L’Office européen des brevets vient de rejeter les deux demandes de brevets  EP 18 275 163 et EP 18 275 174 déposées au nom de DABUS, une intelligence artificielle.

Motif: les brevets n’ont pas d’inventeur humain. 

La question était de savoir si un brevet pouvait être revendiqué par une machine et celle-ci reconnue comme inventeur.

Les demandes de brevets avaient en effet été soumises en août 2019 en Grande Bretahne, aux Etats-Unis et en Europe par le professeur Ryan Abbott de l'Université du Surrey,et son équipe du projet "Artificial inventors". Selon eux, la propriété de l'invention ne devrait pas être limitée aux personnes physiques, une machine qui répondrait aux critères de propriété de l'invention si elle était une personne physique devrait également être considérée comme un inventeur http://artificialinventor.com/dabus/

Dans un communiqué du 20 décembre 2019, l'OEB a annoncé avoir rejeté les deux demandes, l'inventeur devant être un humain et non un algorithme.

“DABUS” était décrite dans le dépôt de brevet comme un "type d'intelligence artificielle connexionniste", c’est-à-dire une machine créative  reposant sur un système de plusieurs réseaux neuronaux capable de générer des idées en modifiant leurs interconnexions.

Après avoir écouté les parties lors d'une audience non publique en date du 25 novembre 2019, l'Office européen des brevets a refusé les brevets  EP 18 275 163 and EP 18 275 174 :

  • le numéro EP 18 275 163 porte sur un type de récipient pour boissons basé sur la géométrie fractale ;
  • le numéro EP 18 275 174 concerne sur un dispositif embarquant une lumière vacillante pour attirer l’attention pendant des opérations de recherche et de sauvetage.

La décision motivée sera disponible dans le courant du mois de janvier.

La reconnaissance des droits de propriété intellectuelle à une intelligence artificielle est donc loin d'être gagnée. Déjà, la protection des oeuvres culturelles créées par une machineétait écartée et elles ne sont pas protégées par des droits d'auteur. Car le robot ne peut prétendre à être considéré comme auteur. Lire notre article Le robot, la musique et les droits d'auteur -

(crédits dessin: Cabinet Thierry Vallat)

Partager cet article

Repost0
13 décembre 2019 5 13 /12 /décembre /2019 13:30

Article mis à jour le 29 mars 2020

Dans une réponse ministérielle du 12 décembre 2019, la garde des Sceaux vient de donner sa vision de la place des algorithmes dans la justice, suite à une question ministérielle n° 11629, JO Sénat 12 déc. 2019 .

La sénatrice Brigitte Lherbier avais attiré l'attention de Mme la ministre de la justice, sur la place accordée aux algorithmes dans le secteur juridique, notamment sur la fonction « prédictive » de ces outils.

Pour la parlementaire "alors que certains pays de l'organisation de coopération et de développement économiques (OCDE), comme la Finlande ou les États-Unis ont de plus en plus recours à des algorithmes dans leurs systèmes de justice, avec par exemple le logiciel américain compas qui mesure le risque de récidive des prévenus, mais s'est révélé peu précis et peu efficace ; il est fondamental pour la France que les professionnels du secteur mais aussi l'État, se saisissent du sujet de l'intelligence artificielle (IA) dans la justice et définissent les usages qu'ils veulent en faire, afin d'éviter l'avènement d'une justice expéditive et déshumanisée"

Elle considère que "lsecteur juridique privé en France gagnerait à établir des bonnes pratiques et à respecter une certaine déontologie en matière de transparence des outils : à titre d'exemple, en France, des éditeurs juridiques privés ont déjà créé des algorithmes sans boîtes noires".

Elle a donc demandé à Mme Belloubet  de clarifier la position du Gouvernement sur le développement de l'IA dans le secteur du droit et de la justice, et sur la possibilité de travailler avec les legal techs à la mise en place d'une certification qui permettrait le déploiement raisonné et éthique de ces solutions d'IA. La France a une opportunité pour être pionnière dans la justice algorithmique, au service des justiciables.

La Garde des Sceaux a répondu ainsi le 12 décembre 2019:
 
"Les nouvelles technologies de l'information et de la communication contribuent à dessiner un nouvel environnement judiciaire permettant ainsi, entre autres, la dématérialisation de l'accès au droit et à la justice, la création de plateformes de résolutions à l'amiable des litiges ou encore l'accès à de nouvelles modalités de saisine des juridictions, notamment civiles.
Parmi ces évolutions, les outils algorithmiques dits « d'intelligence artificielle » se proposent notamment de contribuer à réduire l'aléa judiciaire par l'analyse statistique du risque judiciaire encouru par le justiciable. Touchant au cœur de l'action du magistrat, ces outils pourraient modifier en profondeur la pratique du droit : ils suscitent donc d'importants débats.
Parmi les deux cents entreprises répertoriées en 2018 comme Legaltech seules 3 % des start-ups « legaltech » feraient du développement d'un algorithme d'intelligence artificielle leur cœur de métier. Ces nouveaux acteurs cherchent à faire évoluer les pratiques du droit. Il importe d'évaluer avec objectivité la réalité de ces évolutions. Plusieurs cas d'usage et d'expérimentations, en France comme dans d'autres pays, justifient une première analyse nuancée des algorithmes de prédiction de l'aléa juridique.
En France, l'expérimentation d'un logiciel aux visées prédictives dans le ressort des cours d'appel de Douai et Rennes au printemps 2017 a été conclue par le constat partagé entre magistrats et avocats d'une inadéquation par rapport aux besoins exprimés.
Au Royaume-Uni, l'expérimentation HART, conduite en 2016 par des chercheurs de l'université de Londres, et qui avait comme objectif de reproduire les processus de décision du juge européen, n'est pas parvenue à descendre en dessous des 20 % de réponses erronées, ce qui est un taux trop important pour un outil d'aide à la décision. Il appartient à la puissance publique de fixer le cadre et d'orienter le justiciable dans cet univers en pleine mutation. 
À ce titre, la principale garantie contre une justice intégralement algorithmique tient à l'article 47 de la loi n° 78-17 du 6 janvier 1978 relative à l'informatique, aux fichiers et aux libertés, qui dispose qu'« aucune décision de justice impliquant une appréciation sur le comportement d'une personne ne peut avoir pour fondement un traitement automatisé de données à caractère personnel destiné à évaluer certains aspects de la personnalité de cette personne. (…) ».
La loi n° 2016-1321 du 7 octobre 2016 dite « République numérique » impose la transparence des algorithmes publics, offrant ainsi une garantie supplémentaire contre un éventuel phénomène de « boîte noire » en matière d'usages judiciaires de l'intelligence artificielle. En outre, la loi de programmation 2018-2022 et de réforme pour la justice prévoit : que la réutilisation de données de magistrats ou de greffiers « ayant pour objet ou pour effet d'évaluer, d'analyser, de comparer ou de prédire leurs pratiques professionnelles réelles ou supposées » est un délit (article 33) ; une certification facultative des plateformes en ligne de résolution amiable des litiges, y compris celles dont le service en ligne est proposé à l'aide d'un traitement algorithmique ou automatisé de données à caractère personnel. Il s'agit d'accompagner le développement des legaltech tout en sécurisant le cadre juridique et instaurant un climat de confiance pour le justiciable qui recourt à ces outils numériques. La certification sera accordée dès lors que les plateformes respectent les règles de protection des données à caractère personnel et les exigences d'indépendance et d'impartialité. La certification ne pourra pas être accordée à des plateformes qui auraient pour seul fondement un traitement algorithmique ou automatisé de données. Cette accréditation a été pensée non comme une obligation mais comme une faculté et doit aider au développement de ces entreprises innovantes tout informant pleinement le justiciable.
Parallèlement, le plan de transformation numérique du ministère de la justice doit permettre de mettre en œuvre les dispositions de la loi de programmation 2018-2022 et de réforme pour la justice sur l'open data des décisions de justice."

L’objectif est clair pour Mme Belloubet: « il s'agit d'accompagner le développement des legaltech tout en sécurisant le cadre juridique et instaurant un climat de confiance pour le justiciable qui recourt à ces outils numériques ».
 
Le projet de décret open data a été communiqué par la Chancellerie en novembre dernier. Nous y reviendrons dans un prochain article.
 
mise à jour le 29 mars 2020
 
Si le décret opendata est toujours aux abonnés absents, un autre décret a été publié ce 29 mars 2020: le  Décret n° 2020-356 du 27 mars 2020 qui instaure d'un traitement automatisé de données à caractère personnel dénommé « DataJust » à partir des données de ces 3 dernières années 2017 à 2019 croisées à partir des fichiers JuriCa et Ariane.
 
Il autorise le ministre de la justice à mettre en œuvre, pour une durée de deux ans, un traitement automatisé de données à caractère personnel, dénommé « DataJust », ayant pour finalité le développement d'un algorithme destiné à permettre l'évaluation rétrospective et prospective des politiques publiques en matière de responsabilité civile et administrative, l'élaboration d'un référentiel indicatif d'indemnisation des préjudices corporels, l'information des parties et l'aide à l'évaluation du montant de l'indemnisation à laquelle les victimes peuvent prétendre afin de favoriser un règlement amiable des litiges, ainsi que l'information ou la documentation des juges appelés à statuer sur des demandes d'indemnisation des préjudices corporels.
Le décret définit les finalités du traitement, la nature et la durée de conservation des données enregistrées ainsi que les catégories de personnes y ayant accès 
 
L'avis de la CNIL figure en page 128 du JO (version Pdf)
 
Ce texte se situe donc dans la droite ligne de la vison gouvernementale de la justice prédictive et crée un véritable danger de robotisation de la justice par le truchement d'algorithmes biaisés et une marginalisation consciente du rôle des avocats.
 
 
(Crédits dessin: Cabinet Thierry Vallat)
NB: le maillet est un clin d'œil totalement assumé...

Partager cet article

Repost0
9 août 2019 5 09 /08 /août /2019 07:44

Le Projet de loi relatif à la bioéthique , n° 2187 sera l'un des textes phares qui seront débattus à la rentrée 2019.

Présenté en Conseil des ministres le 24 juillet 2019 le projet de loi propose une évolution de notre cadre bioéthique sur 32 articles interessant l'autoconservation et dons de gamètes, accès à la PMA, dons d'organes, transmission d'informations génétiques etc.

Il vise également à sécuriser la bonne information du patient lorsqu’un traitement algorithmique de données massives (« intelligence artificielle ») est utilisé à l’occasion d’un acte de soins, avec la garantie d’une intervention humaine.

La constitution de bases de données massives relatives à la santé est en effet désormais possible à partir de données recueillies lors de la prise en charge du patient (à des fins sanitaires et/ou médico-sociales), notamment à travers le système national des données de santé qui va être élargi par la création d’une Plateforme nationale des données de santé , mais également en dehors de toute relation de soins, notamment au travers d’objets connectés.

De nombreuses applications fondées sur l’exploitation des données massives et sur des dispositifs d’intelligence artificielle se développent rapidement dans le secteur sanitaire et médico-social, au niveau de la prise en charge individuelle des personnes.  

L’intelligence artificielle est par exemple mise au service d’outils qui permettent d’améliorer l’efficacité et la précocité des diagnostics, de fournir une aide aux décisions thérapeutiques ou  d’améliorer le suivi de l’évolution de la maladie et la prévention des rechutes.

Des dispositifs robotiques interviennent également de façon efficace dans la réalisation d’actes chirurgicaux.

L’intelligence artificielle est également utilisée au niveau collectif, à des fins de recherche, mais aussi de suivi et d’anticipation des risques sanitaires (par exemple dans l’analyse des signaux faibles en matière de pharmacovigilance ou de suivi épidémiologique), ou encore de pilotage du système de santé, par exemple pour fluidifier les parcours de soins.

Se pose donc non seulement la question de l'information du patient, mais aussi celle de la maîtrise finale des décisions diagnostiques, préventives ou thérapeutiques prises à partir des conclusions tirées par des applications d’intelligence artificielle compte tenu, d’une part, des limites résiduelles des algorithmes utilisés au regard de la variabilité des situations individuelles spécifiques de chaque personne, d’autre part, des conséquences potentielles de ces décisions.

L’article 11 du projet vise ainsi à permettre l'information du patient lorsque l'IA est utilisée à l’occasion d’un acte de soins.

Les patients devront donc être systématiquement informés du recours à l'Intelligence artificielle et notamment de tout "traitement algorithmique de données massives". 

Par ailleurs le projet de loi décline également la garantie d’une intervention humaine.

C'est ainsi que le code de la santé serait complété par un nouvel article L. 4001-3 ainsi rédigé :

« Art. L. 4001-3. – I. – Lorsque pour des actes à visée préventive, diagnostique ou thérapeutique est utilisé un traitement algorithmique de données massives, le professionnel de santé qui communique les résultats de ces actes informe la personne de cette utilisation et des modalités d’action de ce traitement.

« II. – L’adaptation des paramètres d’un traitement mentionné au I pour des actions à visée préventive, diagnostique ou thérapeutique concernant une personne est réalisée avec l’intervention d’un professionnel de santé et peut être modifiée par celui-ci.

« III. – La traçabilité des actions d’un traitement mentionné au I et des données ayant été utilisées par celui-ci est assurée et les informations qui en résultent sont accessibles aux professionnels de santé concernés. 

Le projet de loi Bioéthique met donc en place un encadrement juridique des traitements algorithmiques de données massives, c'est-à-dire des traitements de données issus de l’intelligence artificielle, lorsqu'ils sont utilisés pour des actes à visée préventive, diagnostique ou thérapeutique. Le dispositif repose tout d’abord sur une obligation d'informer la personne de l’utilisation d'un tel traitement algorithmique et de ses modalités d'action. Il impose l'intervention d'un professionnel de santé pour le paramétrage d'un tel traitement et précise que ce paramétrage peut être modifié par le professionnel de santé. Il prévoit enfin la traçabilité des données utilisées par ces dispositifs et des actions qui en résultent, ainsi que de l’accès à ces informations des professionnels de santé concernés.

Si ces dispositions ne régissent pas les décisions s'imposant aux personnes concernées puisqu’en application de l'article L 1111-4 du code de la santé publique : « Toute personne prend, avec le professionnel de santé et compte tenu des informations et des préconisations qu’il lui fournit, les décisions concernant sa santé », les effets susceptibles de résulter de tels traitements pour les personnes en cause justifient que le principe posé par l'article 22 du règlement (UE) 2016/679 du Parlement européen et du conseil du 27 avril 2016 relatif à la protection des personnes physiques à l'égard du traitement des données à caractère personnel et à la libre circulation de ces données (RGPD) et par l’article 47 de la loi n° 78-17 du 6 janvier 1978 relative à l'informatique, aux fichiers et aux libertés, qui exclut, sauf exceptions, la mise en œuvre d'une décision fondée exclusivement sur un traitement automatisé, soit appliqué en l’espèce.

Consulté pour avis, le Conseil d'Etat relève que le projet s’inscrit ainsi dans la ligne suivie par le Conseil d’Etat dans son avis sur le projet de loi d’adaptation au droit de l’Union européenne de la loi n°78-17 du 6 janvier 1978 relative à l’informatique, aux fichiers et aux libertés (Assemblée générale, 7 décembre 2017, 393836) en faveur d’une information de la personne concernée et d’une d’intervention humaine avant la prise d’une décision administrative individuelle sur le fondement d’un algorithme. Le Conseil Constitutionnel a, par une décision n°2018-765 DC du 12 juin 2018, jugé que le législateur a défini des garanties appropriées pour la sauvegarde des droits et libertés des personnes soumises aux décisions administratives individuelles prises sur le fondement d’un algorithme, dès lors que ne peuvent être utilisés, comme fondement exclusif de cette décision, des algorithmes « susceptibles de réviser eux-mêmes les règles qu’ils appliquent, sans le contrôle et la validation du responsable du traitement ».

Le Conseil d'État considère ainsi que ces dispositions, qui ne se heurtent à aucun obstacle de nature constitutionnelle ou conventionnelle, sont particulièrement bienvenues

Retrouvez l'avis du 24 juillet 2019 du Conseil d état sur le Projet de loi relatif à la bioéthique

(crédits dessin: Cabinet Thierry Vallat)

Partager cet article

Repost0
24 mai 2019 5 24 /05 /mai /2019 06:15

Un nouveau pas vers des résolutions éthiques internationales en matière d'intelligence artificielle.

Les pays membres et partenaires de l’OCDE ont en effet officiellement adopté le 22 mai 2019  le premier ensemble de principes intergouvernementaux sur l’intelligence artificielle (IA). Ce faisant, ils s’engagent à respecter des normes internationales visant à assurer la conception de systèmes d’IA robustes, sûrs, équitables et dignes de confiance.

Les 36 pays membres de l’OCDE, dont la France, ainsi que l’Argentine, le Brésil, la Colombie, le Costa Rica, le Pérou et la Roumanie ont adhéré aux Principes de l’OCDE sur l’intelligence artificielle lors de la Réunion annuelle du Conseil au niveau des Ministres, consacrée cette année à « La transition numérique au service du développement durable ». Élaborés avec le concours d’un groupe de plus de 50 experts de tous horizons – administrations, milieux universitaires, entreprises, société civile, instances internationales, communauté technique et organisations syndicales –, ils s’articulent autour de cinq principes fondés sur des valeurs, pour un déploiement responsable d’une IA digne de confiance, et cinq recommandations applicables dans le cadre des politiques publiques et de la coopération internationale. L’objectif est d’aider les pouvoirs publics, les organisations et les individus à concevoir et exploiter des systèmes d’IA servant au mieux l’intérêt général et de garantir que concepteurs et exploitants soient tenus responsables de leur bon fonctionnement.

« L’intelligence artificielle révolutionne nos modes de vie et de travail et offre des avantages considérables pour nos sociétés et nos économies. Pourtant, elle soulève de nouveaux défis, suscite également des inquiétudes et pose des problèmes d’éthique. Il incombe donc aux pouvoirs publics de veiller à ce que les systèmes d’IA soient conçus de manière à respecter nos valeurs et nos lois, afin d'assurer la sécurité et la protection de la vie privée des personnes », a déclaré Angel Gurría, Secrétaire général de l’OCDE. « Ces Principes constitueront une référence mondiale pour bâtir une IA digne de confiance, afin que l’on puisse tirer le meilleur parti des opportunités qu’elle offre, au service de tous ». (Lire le discours en anglais).

Les Principes sur l’intelligence artificielle bénéficient du soutien de la Commission européenne, dont le groupe d’experts de haut niveau a rédigé des Lignes directrices en matière d’éthique pour une IA digne de confiance, et seront au menu des débats du prochain Sommet du G20, qui se tiendra au Japon. Dans les mois à venir, les experts des politiques du numérique à l’OCDE s’attelleront à mettre au point des orientations pratiques à l’appui de leur mise en œuvre.

Bien qu’ils ne soient pas juridiquement contraignants, les Principes énoncés par l’OCDE dans d’autres domaines de la politique ont ouvert la voie à l’élaboration de normes internationales et aidé les pouvoirs publics à concevoir leurs législations nationales.

Par exemple, les Lignes directrices de l’OCDE régissant la protection de la vie privée, qui fixent des limites à la collecte et l’utilisation des données à caractère personnel, sous-tendent un grand nombre de cadres et de lois de protection de la vie privée aux États-Unis, en Europe et en Asie. De même, les Principes de gouvernance d’entreprise du G20 et de l’OCDE sont devenus une référence internationale pour les décideurs, les investisseurs, les entreprises et les autres parties prenantes travaillant sur les cadres institutionnels et réglementaires régissant la gouvernance d’entreprise.

En résumé, les Principes spécifient que :

  1. L’IA devrait servir les intérêts des individus et de la planète en favorisant la croissance inclusive, le développement durable et le bien-être.
     
  2. Les systèmes d’IA devraient être conçus de manière à respecter l’état de droit, les droits de l’homme, les valeurs démocratiques et la diversité, et être assortis de garanties appropriées – permettant par exemple l’intervention humaine en cas de besoin –, afin de tendre vers une société juste et équitable.
     
  3. Il convient d’assurer la transparence et la divulgation responsable des informations liées aux systèmes d’IA, afin de faire en sorte que les individus sachent lorsqu’ils interagissent avec de tels systèmes et puissent en contester les résultats.
     
  4. Les systèmes d’IA devraient être robustes, sûrs et sécurisés tout au long de leur cycle de vie ; les risques connexes éventuels devraient être évalués et gérés en permanence.
     
  5. Les organisations et les individus chargés de développer, de déployer ou d’exploiter des systèmes d’IA devraient être responsables de leur bon fonctionnement, dans le respect des principes susmentionnés.
     

L’OCDE recommande aux pouvoirs publics d’entreprendre les actions suivantes :

  • Faciliter l’investissement public et privé dans la recherche et le développement, afin de stimuler l’innovation dans une IA digne de confiance.
  • Favoriser la mise en place d’écosystèmes d’IA accessibles, comprenant les technologies et infrastructures numériques, ainsi que des mécanismes de partage des données et des connaissances.
  • Bâtir un cadre d’action ouvrant la voie au déploiement de systèmes d’IA dignes de confiance.
  • Doter les individus des compétences dont ils ont besoin dans le domaine de l’IA et assurer une transition équitable pour les travailleurs.
  • Favoriser la coopération transnationale et intersectorielle afin de partager des informations, définir des normes et collaborer à l’adoption d’une approche responsable au service d’une IA digne de confiance.
     

La Commission européenne a pour sa part publié en avril dernier des lignes directrices construites sur le postulat selon lequel le développement de l’intelligence artificielle ne peut s’envisager sans confiance . Elles sont le fruit des travaux d’un groupe d’expertise constitué en juin 2018 et qui compte, parmi ses 52 membres, une dizaine de Français.

Trois grands axes ont été retenus : la conformité de l’IA aux lois, sa robustesse (des points de vue technique et social) et son respect des principes d’éthique dont  l’équité, le respect de l’autonomie humaine et la prévention du préjudice. Ces lignes directrices seront actualisées d’ici à début 2020.

 

Télécharger les Principes de l'OCDE sur l'intelligence artificielle dans leur version intégrale.

(source OCDE)

(crédits dessin: Cabinet Thierry Vallat)

 

Partager cet article

Repost0
23 février 2019 6 23 /02 /février /2019 09:41

Article mis à jour le 2 mars 2019

Plusieurs centaines de milliers de contributions ont déjà été collectées dans le cadre du Grand débat national lancé le 15 janvier 2019, sans compter plus de dix mille cahiers de doléances et cinq cents mille courriers électroniques .

À partir du 15 mars 2019, fin de ce grand débat, ce sera le début du travail de tri.

Mais comment faire pour en assurer le traitement ?

Le recours aux algorithmes a donc été jugé indispensable pour traiter la masse de données recueillies sur  le site https://granddebat.fr

C'est l’institut Opinionway qui a été chargé de l’analyse des contributions collectées sur le site.  Il est en effet attributaire depuis 2015 du lot 9 « Analyse de données issues de consultations en ligne » de l'appel d'offres lancé par le Service d’information du gouvernement (SIG).

Pour cela, Opinion Way a fait appel à l'entreprise QWAM Content Intelligence qui a développé  QWAM Text Analytics, un outil d’analyse automatique des données textuelles en masse (big data), faisant appel aux technologies du traitement automatique du langage naturel couplées à des techniques d’intelligence artificielle (apprentissage profond).

L'intelligence artificielle va prendre le relais avec cet outil qui combine le traitement automatique du langage et le "deep learning", cet apprentissage qui permet à la machine d'enrichir ses connaissances par l'expérience.

Le logiciel va notamment identifier, parmi les propositions des internautes, les notions qu'il connaît déjà.

Dans un deuxième temps, les analystes interviendront pour créer de nouvelles notions non connues par la machine et enrichir son dictionnaire.

Ensuite, la machine associera chaque proposition à une catégorie, puis à une sous-catégorie et les verbatims seront au final transformés en pourcentage.

OpinionWay précise que le protocole méthodologique qui sera appliqué comprend une intervention humaine systématique pour contrôler la cohérence des résultats et s’assurer de la pertinence des données produites et de la bonne compréhension du sens des propos des participants au débat.

Par ailleurs, toutes les contributions laissées par écrit dans les cahiers de doléances seront scannées à la Bibliothèque nationale de France. 

Une fois numérisés en photos, tous les fichiers seront transmis à un autre prestataire qui aura pour mission de les transformer en documents dactylographiques de manière à pouvoir faire ensuite les recherches par mots .

C’est alors que débutera l’analyse des cahiers sur le fond, sous l’égide du cabinet de conseils Roland Berger qui devra en restituer les grandes tendances.

Pour ce faire, il faudra recourir à la lexicométrie, cette technologie  capable de faire des associations avec des mots. L'algorithme va ainsi pouvoir classer les différentes contributions en fonction des mots et du sens.

Un test pratique grandeur nature donc pour l'IA.

Espérons surtout que le traitement des données, qui sera in fine validé par le collège de garants du Grand Débat National, assurera impartialité et transparence, l'algorithme ne pouvant restituer des résultats qu'en fonction de sa programmation initiale...

Mise à jour du 2 mars 2019

Le député de Seine-Saint-Denis M. Stéphane Peu a interrogé le Premier Ministre sur les conditions de transparence de l’analyse des données collectées lors du « Grand débat national » dans une question écrite du 1er mars 2019:  ''Quelles garanties, M. le Premier Ministre, allez-vous produire pour que cette indispensable transparence puisse être garantie dans les faits, et que chacun de nos concitoyens puisse en vérifier le fonctionnement ?'' https://www.stephanepeu.fr/wp-content/uploads/2019/03/201902-QE-Algorithmes.pdf

Me Thierry Vallat a été interrogé sur ce sujet par BFMTV  Grand débat: des algorithmes pour trier les préoccupations des Français

(crédits dessin: Cabinet Thierry Vallat)

Partager cet article

Repost0
7 février 2019 4 07 /02 /février /2019 10:51

 

On connaissait déjà le CFVR, l'algorithme de Bercy qui traque les fraudeurs fiscaux.

Et voilà désormais l'analyse prédictive au secours des finances publiques !

Rappelons que le principe consiste à analyser les données passées pour prédire les comportements futurs en utilisant des modèles prédictifs gràce à des algorithmes dédiés.

Un Arrêté du 29 janvier 2019 qui vient d'être publié au journal officiel du 5 février 2019 met en effet en place un traitement automatisé d’analyse prédictive relatif au contrôle de la dépense de l’Etat, aidé par des techniques d'intelligence artificielle.

Il est créé par le service à compétence nationale "Agence pour l'informatique financière de l'Etat" un traitement automatisé d'analyse prédictive destiné à assister les comptables publics assignataires de l'Etat dans la mise en œuvre des modalités de contrôle de la dépense prévues à l'article 42 du décret du 7 novembre 2012 .

Le traitement automatisé s'appuie sur des techniques d'intelligence artificielle et sur un ensemble de règles définies par le directeur général des finances publiques.

Le traitement automatisé analysera les résultats des contrôles de la dépense effectués par les comptables publics assignataires de l'Etat en fonction des caractéristiques des opérations. Ces caractéristiques comprennent notamment des données relatives aux fournisseurs, à l'organisation de la chaîne de la dépense et aux imputations budgétaires et comptables.


A partir de cette analyse, il déterminera la liste des dépenses présentant des risques d'irrégularité au regard des articles 19 et 20 du décret du 7 novembre 2012 susvisé.

Le traitement automatisé sera enrichi périodiquement des résultats des contrôles des comptables publics assignataires de l'Etat.

Encore un outil prédictif  censé permettre d‘anticiper les comportements pour constituer une véritable aide à la décision pour les grands argentiers de la République. En feront-ils bon usage ?

(crédits dessin: Cabinet Thierry Vallat)

 

Partager cet article

Repost0
10 janvier 2019 4 10 /01 /janvier /2019 16:11

Les robots ne connaissent pas le mensonge, mais peuvent le débusquer et c'est donc tout naturellement que des projets d'intelligences artificielles se développent.

Le blog a déjà évoqué récemment l'utilisation de l'intelligence artificielle pour traquer les mensonges des passagers aériens lors des contrôles de sécurité, grâce à une analyse de leurs  micro-expressions.

Le projet européen  "BORDERCTRL" en phase de test  dans des aéroports grecs, lettons et hongrois développe un système de contrôle intelligent censé faciliter le travail des douaniers et services de sécurité en repérant les immigrants illégaux et contribuer ainsi à prévenir les crimes et le terrorisme, et destiné à fluidifier le trafic des voyageurs qui ne cesse d'augmenter dans les aéroports du vieux continent

Il s'agit en réalité d'un véritable détecteur de mensonges profilé calqué sur les tests effectués au Canada en 2017 avec une IA surnommée "Avatar" (pour Automated Virtual Agent for Truth Assessments in Real Time) capable de détecter les mensonges à partir des comportements physiologiques dans ses aéroports, pour aider les douaniers à contrôler les voyageurs en cas de doute sur leur motivation à venir

Au passage de la frontière, vous êtes interrogé par une IA intégrant des facteurs de risques personnalisés  et devrez répondre à des questions posées par une sorte de détecteur de mensonges profilé en fonction "du genre, de l'appartenance ethnique et de la langue" du voyageur 

Le système de détection va alors analyser les micro-expressions du visage pour confondre les personnes qui mentiraient sur les véritables raisons de leur voyage ou leurs bagages (pour en savoir plus lire notre article Le projet européen Iborder control)

Et voilà que dans le même ordre d'idée, des chercheurs britanniques de l'Université de Cardiff  et espagnols ont développé une intelligence artificielle capable de détecter les mensonges dans les plaintes déposées pour vol !

Le programme est testé depuis plus d’un an par la police espagnole et les développeurs de ce détecteur de mensonges ont publié leur étude dans la revue scientifique Knowledge-Based Systems: VeriPol se montrerait fiable dans 83 % des cas, et aurait réduit le nombre de fausses déclarations de vol.

Cette IA est basée sur une combinaison d’analyse automatique des textes et de deep learning.

Ayant appris à reconnaître les éléments caractéristiques des fausses déclarations de vol, VeriPol va utiliser ses algorithmes pour identifier les différentes caractéristiques d'une déclaration,

En analysant à peu près tout ce qui compose le texte,  la nombre de mots, la ponctuation, les verbes et adjectifs utilisés. Veripol va  tente également rechercher également la présence d’indices dans ces déclarations, comme l’absence de contact avec les secours, le manque de détails, l’absence de témoins ou de preuves, ou encore une importance exagérée donnée aux objets volés.

A priori, les plaintes les plus courtes seraient de fausses plaintes, ou encore celles qui se concentrent que sur les objets cher tels que les téléphones, les ordinateurs, et qui ne mentionneraient pas les papiers, les bijoux de famille, seraient également de fausses plaintes pour vol. Les tests auraient ainsi mis en exergue que le programme VeriPol semblerait être plus efficace que les forces de l’ordre pour repérer les fausses déclarations.

Le polygraphe a été créé en 1921 est ce qui se rapproche le plus aujourd'hui du standard de référence en matière d’évaluation de la vérité. ces IA vont-elles détrôner ce vénérale détecteur de mensonge, pas si fiable que cela, encore utilisé notamment aux USA ( il ne peut être imposé au mis en cause mais le refus de s'y soumettre constituen un indice que la personne a quelque chose à se reprocher) ?

A noter encore ce projet danois baptisé Veritaps, un nouvel algorithme d’apprentissage automatique développé par une équipe de l’université de Copenhague capable d’identifier l’honnêteté et son contraire en analysant la manière dont une personne interagit avec l’écran d’un mobile. Ainsi, les actions malhonnêtes seraient plus longues et impliqueraient davantage de gestes que pour les comportements honnêtes expliquent les chercheurs dans leur article.

Votre smartphone serait ainsi transformé en petit détecteur de mensonges par cette application:  le programme marque d’une coche verte les déclarations véridiques et d’un point d’interrogation rouge celles qui lui semblent douteuses. La personne recevant ces évaluations pourra alors demander un complément d’information à son interlocuteur pour les réponses suspectes. 

Ce genre d’applis soulève cependant de nombreuses questions éthiques puisqu'exploitant des données  personnelles comme la pression sanguine ou le rythme cardiaque. Tous ces projets sont par ailleurs bien silencieux sur le recueil des données biométriques, la conservation des données, leur durée de conservation, leur accès etc. qui ne semblent guère préoccuper leurs intiateurs.

Alors, véritables détecteurs de mensonges ou plutôt indicateurs sur la nécessité de vérifier une information, la tentation est déjà grande d'utiliser les IA en matière de justice ou de sécurité et l'idée de multiplier les robots dans les commissariats de police et dans les tribunaux fait de plus en plus son chemin, en espérant que ce ne sera pas au détriment de l'humain comme le projet de loi "Justice" de Nicole Belloubet semble le concevoir.

Et pourquoi pas aussi ne pourraient-ils pas servir à déceler les fake news, ce serait bien utile en ces temps d'infox continuelles !

(crédits dessin: Cabinet Thierry Vallat)

Retrouvez mon interview sur la reconnaissance faciale et ses dangers sur Sputnik News du 9 janvier 2019

Partager cet article

Repost0
17 décembre 2018 1 17 /12 /décembre /2018 13:26

Mise à jour du 20 février 2019

Big brother dans nos écoles: c'est déjà aujourd'hui ! Nous lancions ce cri d'alarme en juillet dernier dans notre article Vidéosurveillance, reconnaissance faciale et badge de présence pour les élèves: bienvenue dans l'école 2.0 de 2018.

Et nous n'avions encore rien vu !

Le quotidien Niçois NIce Matin nous confirme en effet que dès janvier 2019 se déroulerait une expérimentation de reconnaissance faciale dans des lycées français.

Des portiques visuels de contrôle d’accès développés par la société américaine  Cisco, seront installés dans deux établissements de  la Région Provence Alpes Côte d’Azur Ampère à Marseille et les Eucalyptus à Nice

Des capteurs vidéos seront installés devant les grilles de l'établissement. A chaque lycéen ou professeur serait associée une identité numérique comprenant une photo, comme un badge ou un bracelet par exemple. Les capteurs seraient capables de déterminer si l’image de la personne qui vient de passer se trouve bien dans les fichiers du lycée, en comparant toutes les images enregistrées au préalable

Si tel n’est pas le cas, le surveillant qui contrôle les allées et venues à l’ouverture du portail reçoit une alerte sur un écran (ordinateur, tablette ou smartphone). Les caméras installées par la société enregistrent le parcours de cette personne repérée afin d’aider le surveillant à identifier et approcher ce visiteur inconnu.

On parle de seulement, dans un premier temps, de deux classes de l’établissement niçois. Soit une soixantaine d’élèves sur un millier, selon le Syndicat national des enseignements de second degré (SNES).

Il s'agit d'apporter une assistance aux agents assurant l’accueil du lycée afin de faciliter et réduire la durée des contrôles, lutter contre l’usurpation d’identité et détecter le déplacement non souhaité d’un visiteur non identifié"

On peut également comprendre l'inquiétude légitime des parents sur ce mode de contrôle et de surveillance de leur enfant. Le consentement préalable des lycéens serait requis et ceux qui refuseraenit la biométrie pourront, en théorie, continuer sur un contrôle classique.

C'est déjà un vieux projet caressé par la Région PACA dont  le président Les Républicains Renaud Muselier avait déposé en début d'année 2018 auprès de la commission nationale de l’informatique et des libertés (Cnil) une demande de conseil sur ce  « projet d’expérimentation de portique visuel »(lire dans La Provence.)

La Région annonce que la CNIL aurait désormais donné son feu vert à pour lancer l’expérimentation.

C'est aller vite en besogne car il ne s'agissait que d'une "demande de conseil" sur ce dossier, qui n’a pas valeur d’avis ou de validation de la Commision.

Force est en outre de constater  que  le règlement européen n'implique plus de déclaration préalable à la CNIL.

En revanche, la transparence requise par le RGPD depuis mai 2018 devra être respectée

Pour être conforme  au RGPD, la CNIL recommande d'ailleurs de faire figurer un premier niveau d’information sur un panneau d’information affiché à proximité du dispositif de contrôle d’accès aux locaux. Le second niveau d’information pourra être porté à la connaissance des personnes concernées par le biais d’une note d’information plus complète relative à la gestion des données personnelles et aux droits de personnes, mise à disposition des visiteurs (durée de conservation des données, accessibilité, finalité du traitement etc.),

Rappelons enfin  que le critère absolu, c’est la proportionnalité de cette démarche par rapport à l’utilisation qu’on veut en faire, La question est : est-ce qu’il n’existe pas un autre moyen moins intrusif dans la vie privée que cette technologie un peu invasive pour assurer la sécurité ? » Nos bon vieux surveillants ne font-ils d’ores et déjà pas ce travail ou cherche-t-on à les supprimer encore d'avantage ?

Et ne comptez pas vous détendre avec un peu de musique pour oublier que vous êtes fliqués: la reconnaissance faciale est utilisée aujourd'hui systématiquement par plusieurs artistes, comme Taylor Swift , qui l'utilisent pour des raisons de sécurité, en scannant la foule afin d'identifier lors de leurs concerts  les éventuels stalkers mis sur liste noire....

Big Brother on vous dit.

Retrouvez notre analyse sur le sujet pour 20 minutes  Education: Les questions que pose la reconnaissance faciale dans les écoles

(source: Nice Matin https://www.nicematin.com/vie-locale/la-reconnaissance-faciale-testee-des-janvier-2019-a-lentree-dun-lycee-de-nice-284866

Mise à jour du 20 février 2019

Quatre organisations: La Quadrature du Net, la Ligue des droits de l’Homme, CGT Educ’Action des Alpes-Maritimes et la Fédération des Conseils de Parents d’Élèves des écoles publiques des Alpes-Maritimes, ont  déposé un recours devant le tribunal administratif de Marseille pour demander l’annulation de la délibération du conseil régional du 14 décembre 2018 autorisant la mise en œuvre d’une expérimentation de reconnaissance faciale dans deux lycées de la région.

Ce recours se fonde  notamment sur le manque de respect des règles du règlement général sur la protection des données (RGPD), comme l'absence d'analyse d’impact n’avait été réalisée et un traitement de données biométriques qui manifestement disproportionné par rapport à l’objectif poursuivi 

Retrouvez le recours ici.

 

(crédits dessin: Cabinet Thierry Vallat)

Partager cet article

Repost0
9 décembre 2018 7 09 /12 /décembre /2018 08:35

Parution au Journal officiel de ce 9 décembre 2018 du  Vocabulaire de l'intelligence artificielle, une liste de termes, expressions et définitions adoptés en français)

C'est ainsi par exemple que  le processus par lequel un algorithme évalue et améliore ses performances sans l'intervention d'un programmeur, en répétant son exécution sur des jeux de données jusqu'à obtenir, de manière régulière, des résultats pertinents connu en anglais sous le vocable "machine learning" est francisé en "apprentissage automatique".

Le chatbot,  ce logiciel spécialisé dans le dialogue en langage naturel avec un humain, qui est capable notamment de répondre à des questions ou de déclencher l'exécution de tâche devient un "dialogueur" ou "agent de dialogue" ( mais pas agent conversationnel qui est désormais dconseillé).

Ne dites plus non plus "réseau neuronal", mais "réseau de neurones artificels"

Pas certain cependant que ces termes emportent l'adhésion des professionnels. 

II. - Table d'équivalence
A. - Termes étrangers

 


TERME ÉTRANGER (1)

DOMAINE/SOUS-DOMAINE

ÉQUIVALENT FRANÇAIS (2)

artificial intelligence (AI).

Informatique.

intelligence artificielle (IA).

artificial neural network, neural network.

Informatique.

réseau de neurones artificiels, réseau de neurones, réseau de neurones formels, réseau de neurones.

artificial neuron, artificial neurone, formal neuron, formal neurone.

Informatique.

neurone artificiel, neurone formel.

chatbot, conversational agent.

Informatique.

dialogueur, n.m., agent de dialogue.

data clustering, unsupervised learning, unsupervised training.

Informatique.

apprentissage non supervisé.

deep learning, deep structured learning, hierarchical learning.

Informatique.

apprentissage profond.

formal neuron, artificial neuron, artificial neurone, formal neurone.

Informatique.

neurone artificiel, neurone formel.

hierarchical learning, deep learning, deep structured learning.

Informatique.

apprentissage profond.

machine learning (ML).

Informatique.

apprentissage automatique, apprentissage machine.

neural network, artificial neural network.

Informatique.

réseau de neurones artificiels, réseau de neurones, réseau de neurones formels, réseau de neurones.

reinforcement learning.

Informatique.

apprentissage par renforcement.

supervised learning, supervised training.

Informatique.

apprentissage supervisé.

unsupervised learning, data clustering, unsupervised training.

Informatique.

apprentissage non supervisé.

(1) Il s'agit de termes anglais, sauf mention contraire.
(2) Les termes en caractères gras sont définis dans la partie I (Termes et définitions).

 


B. - Termes français

 


TERME FRANÇAIS (1)

DOMAINE/SOUS-DOMAINE

ÉQUIVALENT ÉTRANGER (2)

agent de dialogue, dialogueur, n.m.

Informatique.

chatbot, conversational agent.

apprentissage automatique, apprentissage machine.

Informatique.

machine learning (ML).

apprentissage non supervisé.

Informatique.

data clustering, unsupervised learning, unsupervised training.

apprentissage par renforcement.

Informatique.

reinforcement learning.

apprentissage profond.

Informatique.

deep learning, deep structured learning, hierarchical learning.

apprentissage supervisé.

Informatique.

supervised learning, supervised training.

dialogueur, n.m., agent de dialogue.

Informatique.

chatbot, conversational agent.

intelligence artificielle (IA).

Informatique.

artificial intelligence (AI).

neurone artificiel, neurone formel.

Informatique.

artificial neuron, artificial neurone, formal neuron, formal neurone.

réseau de neurones artificiels, réseau de neurones, réseau de neurones formels, réseau de neurones.

Informatique.

artificial neural network, neural network.

(1) Les termes en caractères gras sont définis dans la partie I (Termes et définitions).
(2) Il s'agit d'équivalents anglais, sauf mention contraire.

 

 

Partager cet article

Repost0
27 novembre 2018 2 27 /11 /novembre /2018 07:29

La question des robots soldats revient sur le devant de la scène avec le programme britannique en cours "Autonomous Warrior", grandes manoeuvres lancées le 12 novembre 2018 afin de tester des dizaines de robots militaires.

Rappelons que l'ONU a lancé en avril 2018 les premières discussions officielles sur les SALA, ces Systèmes d'Armes Létales Automatisées, également appelés "robots tueurs" ou en anglais LAWS (Lethal Autonomous Weapons Systems) https://www.unog.ch/80256EE600585943/(httpPages)/F027DAA4966EB9C7C12580CD0039D7B5?OpenDocument

Ces armes autonomes capables de choisir leurs cible et de tuer pourraient rapidement remplacer les soldats sur les champs de bataille ou , en matière de sécurité intérieure, dans des opérations de maintien de l'ordre. Cette perspective de "robots tueurs" peut donc légitimement inquiéter.

En effet,  les armes entièrement autonomes seraient encore plus dangereuses que les drones télécommandés qui sont déjà utilisés sur certains conflits, car elles seraient capables de sélectionner et d’attaquer des cibles sans intervention d’un être humain

La technologie a effectué d'énormes progrès tant au niveau mécanique que logiciel. ce n'est pas un hasard si on les retrouvent déjà sur tous les terrains d'opération, sous forme de drones, de navires ou de tanks. C'est ainsi que des robots de combat ont été engagés contre Daesch en Syrie. Aucun pays ne veut rester à la traîne, sous peine de se retrouver en infériorité technologique et tactique.

Et ils s'invitent même dans la société civile ! Prenons l'exemple des drones. Ils sont d'abord développés pour les besoins militaires, massivement utilisés en Afghanistan par exemple et ils sont d'une redoutable efficacité sur le terrain. Mais aujourd'hui, les drones de loisirs constituent un des cadeaux les plus appriéciés pour Noël ! Mais bien entendu, les recherches les plus avancées et les plus secrètes restent la chasse gardée des militaires.

D'où de nombreuses préoccupations, qui ne sont donc pas limitées au militaire, puisque la prise de contrôle à distance de machines (drones ou voitures plus ou moins autonomes) semble relativement aisée aujourd'hui pour un hacker expérimenté.

Certains estiment que l'on se dirige de plus en plus vers une « guerre de robots », où les humains seraient soit inutiles, soit épargnés.

Mais malheureusement, les humains constitueront toujours une cible. Le rôle des combattants humains sera en revanche modifié. Les robots seront une aide de plus en plus précieuse pour les militaires. Et les soldats seront de plus en plus professionnels avec des connaissances de plus en plus pointues pour pouvoir se servir de ses armements. Mais attention, si l'image du conscrit auquel on donne un fusil pour sauver la patrie en danger parait difficilement inimagineable aujourd'hui avec ces nouvelles armes sophistiquées, les conflits sont de moins en moins classiques et l'exemple afghan avec l'enlisement d'armées très bien équipées et en apparence invicibles est édifiant: des engins improvisés à la Mac Gyver peuvent causer à la longue autant de dommages qu'un robot-tueur.

ll n'y a pas de guerre sans morts. Même en utilisant des armées de robots contre des machines, comment imaginer qu'un conflit se finirait sans pertes civiles, collatérales ou non. Et être tué par un robot ou un soldat, quelle différence après tout ?

En arriverons nous pour autant au cauchemar Skynet, comme dans le film Terminator où l'homme est traqué par les robots devenus totalement autonomes et hostiles ?

Rien n'est moins sur. Mais force est de constater que l'on assiste aujourd'hui à une course à l'armement de plus en plus rapide. Les tests britanniques d'autonomous warrior le démontrent. Les français ne sont pas en reste et s'équipent  de chars utonomes estoniens dans le cadre du programme Scorpion par exemple, avec à terme de plus en plus d'autonomie pour ces robots gràce à la délégation par apprentissage qui se développe.

Et c'est là un des dangers, la programmation des algorithmes, qui reste humaine. Qui va-t-on décider de neutraliser et en fonction de quels critères nourrira-t-on la machine ?

On peut donc s'interroger sur le fait que droit international soit vraiment respecté avec ces drones qui neutralisent à distance. Et si demain une machine sans opérateur humain vient abattre un adversaire dans un pays étranger, quel droit appliquer, qui va rendre des comptes  ? 

Les enjeux éthiques sont également au coeur de ce débat. Envoyer des robots à la guerre pourrait causer des erreurs de jugement par le commandement. On le voit d'ailleurs avec les ciblages par drones avec un sentiment d'impunité du tireur humain derrière son écran, un "effet cockpit" qui ne doit en rien atténuer la responsabilité du tireur en cas de crime de guerre. Qui sera le responsable des actions du robot-tueur: le programmateur de l'intelligence artificielle, le constructeur, son financier ou le commandant de l'opération ?

Un encadrement juridique rationnel des SALA s'impose donc, notamment pour définir leur utilisation, mais aussi, question essentielle, les responsabilités, car on ne peut pas transférer à des machines la responsabilité de prendre des décisions ayant des conséquences légales.
 
Malheureusement à la question  "Un robot peut-il respecter le droit sur le champ de bataille ?" c’est par la négative que Human Right Watch a répondu dans son dernier rapport du 21 aout 2018 Les robots tueurs échouent au test moral et juridique, car ils violent notamment la "clause de Martens"
 
Me Thierry Vallat a répondu aux questions de Sputnik News le 26 novembre 2018 sur le thème: Robots-tueurs, de la science-fiction aux prochains champs de bataille
(crédits dessin: Cabinet Thierry Vallat)

Partager cet article

Repost0
6 novembre 2018 2 06 /11 /novembre /2018 06:00

L'intelligence artificielle va-t-elle prochainement débusquer les mensonges des passagers aériens lors des contrôles de sécurité, grâce à une analyse de leurs  micro-expressions.

C'est en effet un véritable détecteur de mensonges profilé qui est en phase de test  dans des aéroports grecs, lettons et hongrois a annoncé la Commission européenne dans un récent communiqué du 24 octobre 2018.

Il s'agit d'un projet européen financé par l'UE destiné à fluidifier le trafic des voyageurs qui ne cesse d'augmenter dans les aéroports du vieux continent.

L'idée est simple et.... terrifiante: au passage de la frontière, vous serez interrogé par une IA intégrant des facteurs de risques personnalisés  et devrez répondre à des questions posées par une sorte de détecteur de mensonges profilé en fonction "du genre, de l'appartenance ethnique et de la langue" du voyageur 

Le projet est calqué sur les tests effectués au Canada en 2017 avec une IA capable de détecter les mensonges à partir des comportements physiologiques dans ses aéroports. Cette IA surnommée "Avatar" (pour Automated Virtual Agent for Truth Assessments in Real Time) pourrait ainsi aider les douaniers à contrôler les voyageurs en cas de doute sur leur motivation à venir.

Si l'on en croit l'enthousiaste communiqué européen, ce projet répondant au doux nom de  "IBORDERCTRL" développe un système de contrôle intelligent ‘qui va faciliter le travail des douaniers et services de sécurité en repérant les immigrants illégaux et ainsi contribuerait à prévenir les crimes et le terrorisme.

Dans un premier temps, il faudra télécharger une application en ligne du systeme The IBORDERCTRL system en téléchargeant la photographie de votre passeport, du visa et les justificatifs de ressources, puis utiliser une webcam pour répondre à des questions d'un avatar de douanier qui tiendront compte  du genre, de l'appartenance ethnique et de la langue" du voyageur.

Le système de détection va alors analyser les micro-expressions du visage pour confondre les personnes qui mentiraient sur les véritables raisons de leur voyage ou leurs babages.

Cette étape préalable ne sera que la première du genre puisque à votre arrivée à la véritable frontière, le système vous préviendra de vos droits et des procédures, de même que prodiguera des conseils et des avertissements pour décourager les activités illégales !

Ceux qui auront eu la chance d'obtenir une bonne note au premier exercice bénéficieront d'un contrôle allégé, tandis que les autres, considérés à haut risque,  seront sévèrement reévalués.

Leurs données personnelles seraient croisées par les officiers de contrôle, par exemple les photos telles que téléchargées pour passer le précontrôle et celles déjà utilisées lors de voyages précédents.

Bien entendu, vos empreintes digitales, le scan de votre réseau veineux palmaire et la reconnaissance faciale seraient alors également au programme de ce cauchemar biométrique.

 

Le communiqué est malheureusement bien laconique sur les limites au recueil des données biométriques, la conservation des données, leur durée de conservation, leur accès etc. qui ne semblent guère préoccuper les initiateurs du projet....

Rappelons que Londres teste déjà un système destiné lui aussi à réduire les files d'attente aux portiques du metro: les passagers du tube n'auront bientôt plus besoin de ticket ou de pass avec ce nouveau système de billetterie à partir de la reconnaissance faciale et de l’analyse des veines palmaires qui laisse craindre une surveillance de masse de plus en plus présente.

 

(crédits dessin: Cabinet Thierry Vallat)

 

Partager cet article

Repost0

Présentation

  • : Le blog de Thierry Vallat, avocat au Barreau de Paris (et sur Twitter: @MeThierryVallat)
  • : Blog d'actualités juridiques par Maître Thierry Vallat, avocat au Barreau de Paris (33 01 56 67 09 59) cabinet secondaire à Tallinn ISSN 2496-0837
  • Contact

Le Cabinet Thierry Vallat

    

Cabinet Thierry Vallat

Avocat inscrit sur le registre des mandataires sportifs et immobiliers

50, avenue de la Grande Armée 75017 Paris (cabinet secondaire Pikk 41- 10123 Tallinn)

Tel: 33(0)1.56.67.09.59

mail: thierryvallatavocat@pm.me

Activités dominantes: Droit des médias et de l'internet, droit numérique et des robots, droit pénal),

Recherche

Dans les médias récemment

RMC du 5 septembre 2020 sur l'affaire Crocq et la diffusion sur Facebook

BFMTV du 4 septembre 2020 sur la décision du TA de Lyon sur le port du masque

Sputnik France du 29 août 2020 sur le redressement fiscal de Facebook

BFMTV du 29 août 2020 sur l'article injurieux contre Danielle Obono

Mediapart du 25 août 2020 sur l'interdiction de TikTok aux USA

Marianne du 26 août 2020 sur la légalité du topless sur la plage

RT France du 23 août 2020 sur l'interdiction de TikTok

Sputnik France du 17 août 2020 sur les rave parties

La Croix du 14 août 2020 sur le recours contre France télévisions sur la GPA

RT France du 8 août 2020 sur la labellisation des médias sur Twitter

Sputnik France du 4 août 2020 sur le bilan d'Hadopi

Mediapart du 30 juillet 2020 sur la droit de filmer la police

BFMTV le 13 juillet 2020 sur le port du masque obligatoire

Sud Radio du 7 juillet 2020 sur la nomination du Garde des Sceaux 

RT France du 7 juillet 2020 sur le droit de manifester

Al Hurra du 5 juillet 2020 sur la CJR

ZDNET du 3 juillet 2020 sur la transparence des algorithmes

Acteurs Publics du 30 juin 2020 sur l'open data des décisions de justice

RT France du 26 juin 2020 sur la reconnaissance faciale

ZDNET du 26 juin 2020 sur la Justice qui se numérise

RT France du 19 juin 2020 sur la loi Avia

La Croix du 10 juin 2020 sur l'accès des mineurs aux sites pornographiques

Le Journal des maires de juin 2020 sur la protection fonctionnelle des élus

Sud Radio du 9 juin 2020 sur la liberté d'expression 

RT France du 27 mai 2020 sur l'appli StopCovid

Sputnik France du 22 mai 2020 sur les données de santé

Al Hurra du 21 mai 2020 sur la loi Avia

RT France du 13 mai 2020 sur la loi Avia

Sputnik France du 13 mai 2020 sur la loi Avia

Sud Radio du 12 mai 2020 sur les plaintes déposées devant le gouvernement

Le Parisien du 11 mai 2020 sur la mise en place du déconfinement en entreprise

La Croix du 3 mai 2020 sur le fichier SIDEP

Sud Radio du 28 avril 2020 sur l'application StopCovid

Mediapart du 25 avril 2020 sur l'utilisation des drones de surveillance

GQ d'avril 2020 sur les deepfakes

Sud Radio du 13 avril 2020 sur le traçage numérique

RT France du 10 avril 2020 sur les drones de surveillance

La Croix du 8 avril 2020 sur la détention provisoire

Le Monde du droit du 6 avril 2020 sur le décret DataJust

BFM du 3 avril 2020 sur les drones de surveillance

Sputnik france du 1er avril 2020 sur la géolocalisation

France 2 et France Info du 3 mars 2020 sur le fichier Gendnotes

BFM du 21 février 2020 sur l'affaire Pavlenski

Sud Radio du 19 février 2020 débat sur la haine sur les réseaux sociaux

C News du 19 février 2020 sur le revenge porn

RT France du 18 février 2020 sur l'anonymat sur internet

BFM du 17 février 2020 sur le pornodivulgation

Sud Radio du 13 février 2020 sur le contrôle judiciaire et les demandes de remises en liberté 

Le Télégramme de Brest du 9 février 2020 sur les caméras de surveillance

RT France du 3 février 2020 sur la grève des avocats

La Croix du 30 janvier 2020 sur le déblocage des téléphones par la police

RT France du 21 janvier 2020 sur la Loi Avia sur la cyberhaine

France Info du 14 janvier 2020 sur le droit de filmer la police

Ouest France du 13 janvier 2020 sur le blocage des examens dans les facs

Libération du 10 janvier 2020 sur la doctrine d'emploi des LBO

RT France du 9 janvier 2020 sur la grève des avocats

France Inter du 31 décembre 2019 sur l'application Alicem

Medi 1 du 31 décembre 2019 sur l'affaire Carlos Ghosn

La Croix du 30 décembre 2019 sur la reconnaissance faciale

20 minutes du 30 décembre 2019 sur le SNDV

NextInpact du 26 décembre 2019 sur le SNDV

RT France du 24 décembre 2019 sur l'application Alicem 

LCI du 18 décembre 2019 sur les salariés forcés de changer de prénom

France Info du 17 décembre 2019 sur le droit de filmer la police

L'Obs du 11 décembre 2019 sur l'amendement Grand 

Libération du 10 décembre 2019 sur le droit de filmer la police

BFMTV du 6 décembre 2019 sur le droit de filmer dans une salle d'audience 

Ouest France du 5 décembre 2019 sur le covoiturage

CaféBabel du 15 novembre 2019 sur le statut des repentis

LCI du 6 novembre 2019 sur la légalité de la cagnotte Balkany

Le Parisien du 1er novembre 2019 sur les menaces par internet

BFMTV le 28 octobre 2019 sur le procès Balkany

Mediapart du 19 octobre 2019 sur le projet serenecity 

20 Minutes du 29 octobre 2019 sur la reconnaissance faciale

Le Parisien du 16 octobre 2019 sur le port du voile dans l'espace public

BFMTV du 14 septembre 2019 sur le procès Balkany

RT France du 13 septembre 2019 sur le libra en Europe

RFI du 15 août 2019 sur la légalité des tests ADN

La Croix du 13 août 2019 sur le fichage judiciaire

France 3 du 12 août 2019 sur la règlementation des trottinettes

LCI du 6 août 2019 sur le délit d'outrage sexiste un an après 

RT France du 24 juillet 2019 sur les sanctions CSA

BFMTV du 16 juillet 2019 sur le cadre juridique des émojis

BFM Business du 12 juillet 2019 sur les drones de surveillance

Sputnik du 11 juillet 2019 sur la taxe Gafa et les mesures de rétorsion us

RT France du 9 juillet 2019 sur la loi Avia

BFMTV et RMC du 9 juillet 2019 sur le procès de Bernard Tapie

La Croix du 5 juillet 2019 sur la loi Avia 

Le Figaro du 3 juillet 2019 sur la loi anti-fessée

France Inter du 25 juin 2019 sur Facebook et les contenus haineux

Public Sénat du 24 juin 2019 sur la canicule et le droit du travail

France Soir du 21 juin 2019 sur la légitime défense pendant les cambriolages

France 2 du 3 juin 2019 sur les drones de surveillance de la police

BFMTV du 29 mai 2019 sur l'utilisation de Facebook dans la succession Hallyday

L'Obs du 28 mai 2019 sur l'art 11 du Code de procédure pénale

L'Express du 23 mai 2019 sur le secret des sources des journalistes et le secret défense

RT France du 23 mai 2019 sur la collecte déloyale de données personnelles 

LCI du 22 mai 2019 sur le licenciement pour refus de travail du dimanche

Le Parisien du 22 mai 2019 sur la légalité des kits ADN

Sud Ouest du 21 mai 2019 sur l'affaire des 1000 potes

TF1 du 20 mai 2019 sur la saisie pénale contre les gilets jaunes

BFMTV du 20 mai 2019 sur le délit de corruption et l'affaire Balkany

Libération du 20 mai 2019 sur la collecte de données personnelles

BFMTV du 19 mai 2019 sur le délit de corruption et l'affaire Balkany

LCI du 18 mai 2019 sur la légalité de la saisie du patrimoine de Gilets jaunes

France Info du 17 mai 2019 sur le litige RN/FI sur les tracts electoraux

BFMTV du 17 mai 2019 sur la légalité des kits ADN

France Soir du 16 mai 2019 sur le droit des secours en mer

France Info du 16 mai 2019 sur la règlementation des affiches electorales

Sud Radio du 15 mai 2019 sur la lutte contre les contenus haineux sur internet

RT France du 14 mai 2019 sur la protection consulaire

Mieux Vivre votre argent du 9 mai 2019 sur la discrimination au logement 

Ouest France du 9 mai 2019 sur les cameras piétons de la police municipale 

France Info du 8 mai 2019 sur la violation de sépulture

LCI du 7 mai 2019 sur la discrimination au logement

RT France du 6 mai 2019 sur la règle d'équité du temps de parole de la campagne européenne

France 2 et France Info du 5 mai 2019 sur la sécurité des drones médicaux

LCi du 4 mai 2019 sur la pratique de la nasse 

Science et Avenir du 3 mai 2019 sur les drones

KBS du 1er mai 2019 sur la légalité des implants sous cutanés

L'Express du 30 avril 2019 sur les PMC

Libération et BFMTV du 26 avril 2019 sur le droit de filmer une interpellation

BFMTV du 20 avril 2019 sur le caractère probatoire des PMC

Arte du 14 avril 2019 sur la e-résidence en Estonie

France Soir du 2 avril 2019 sur la loi anti-cagoule

Public Sénat du 9 avril 2019 sur le financement des partis politiques

Le Télégramme du 9 avril 2019 sur le droit des drones

Marianne du 9 avril 2019 sur la taxe GAFA

La Voix du Nord du 7 avril 2019 sur les amendes LEZ à Anvers

RT France du 3 avril 2019 sur le blocage par Twitter de la campagne du gouvernement

LCI du 2 avril 2019 sur la fronde des prud'hommes contre les barèmes de licenciement

CGTN du 30 mars 2019 sur l'emploi des LBD

Libération du 30mars 2019 sur les produits chimiques codés

M6 du 29 mars 2019 sur la procédure en cours sur la loi applicable à l'héritage de Johnny Hallyday 

France Info du 23 mars 2019 sur les amendes pour manifestations interdites

TF1 et France 3 WE du 23 mars 2019 pour l'affaire des Milles Potes

C Dans l'Air du 23 mars 2019 sur les PMC

Huffington Post du 23 mars 2019 sur les drones de surveillance

France Info du 22 mars 2019 sur les interdictions de manifester

Sud Ouest et FR3 du 22 mars 2019 sur l'affaire des 1000 potes

Europe 1 et Le Figaro du 21 mars 2019 sur l'affaire des 1000 potes

Radio Classique, Sud Radio et RT France du 20 mars 2019 sur les produits marquants chimiques

BFMTV du 19 mars 2019 sur les PMC

Cheek Magazine du 19 mars 2019  sur les frotteurs du métro

Le Parisien du 19 mars 2019 sur les produits marquants chimiques

LCI du 19 mars 2019 sur les PMC

Le Figaro du 19 mars 2019 sur les PMC

BFMTV du 19 mars 2019 sur les arnques sur Facebook

TF1 du 18 mars 2019 sur l'article 40 du CPP

RMC du 18 mars 2019 sur les contraventions pour manifestation interdite

Canal Plus du 17 mars 2019 sur le cyberharcèlement

France Soir du 15 mars 2019 sur les arrestations abusives

TICPharma du 15 mars 2019 sur la Blockchain Vs RGPD

BFMTV du 14 mars 2019 sur les arnaques dans les publicités sur Facebook

GameKult du 6 mars 2019 sur le jeu violent rapde Day retiré par Valve

BFMTV du 1er mars 2019 sur la transparence de l'algorithme du Grand débat national 

Le Pélerin du 28 février 2019 sur les caméras de surveillance dans les églises

Blog du Modérateur du 28 février 2019 sur le comportement des salariés sur les réseaux sociaux

Public Sénat du 21 février 2019 sur les réseaux sociaux et les propos haineux

Le Parisien du 21 février 2019 sur comment lutter contre les propos haineux sur internet

Développez.com du 18 février 2019 sur le droit des émojis

Courrier des Cadres du 18 février 2019 sur les dérapages des salariés sur les réseaux sociaux

Süddeutsche Zeitung du 16 février 2019 sur le gaspillage alimentaire

France Soir du 15 février 2019 sur la loi Anticasseur

Courrier des Cadres du 15 février 2019 sur le licenciement causé par un harcèlement au travail

RT France du 15 février 2019 sur le refus d'accréditation de journalistes

France Info  du 15 février 2019 sur le cyberharcèlement

Sputnik News du 14 février 2019 sur l'espionnage des smartphones

Blog du Modérateur du 13 février 2019 sur l'utilisation des réseaux sociaux au travail

Public Sénat du 12 février 2019 débat sur les réseaux sociaux

Le Figaro du 12 février 2019 sur le cyberharcèlement 

Blog du Modérateur, France Info du 12 février 2019 sur la ligue du Lol

L'Express et Le Parisien du 11 février 2019 sur la ligue du LOl

Agoravox du 10 février 2019 sur les LBD

France Info du 10 février 2019 sur le gaspillage alimentaire

Le Parisien du 5 février 2019 sur la lutte contre le gaspillage alimentaire

Al Hurra du 4 février 2019 sur les relations Iran-UE et l'Instex

France Bleue, le Monde et RTL du 4 février 2019 sur le gaspillage alimentaire

RT France du 2 février 2019 sur les réseaux sociaux

Al Hurra du 25 janvier 2019 sur la légalité des LBD40

RT France du 25 janvier 2019 sur la neutralité du net

Figaro Magazine 24 janvier 2019 sur l'espionnage de Bercy via les réseaux sociaux

France Soir du 24 janvier 2019 sur le blocage des sites internet

LCI du 22 janvier 2019 sur la protection des données personnelles sur le site Grand Débat

Le Figaro du 21 janvier 2019 sur l'audition d'Alexandre Benalla au Sénat

Blockchain Land du 18 janvier 2019 sur la nouvelle règlementation de la blockchain en France

France Soir du 16 janvier 2019 sur la non assistance à personne en danger

Droit travail France du 16 janvier 2019 sur les chauffeurs Uber

CNN et France Soir du 15 janvier 2019 sur les amendes pour port du gilet jaune

RT France du 14 janvier 2019 sur l'affaire Lafarge

Gazette des Communes du 14 janvier 2019 sur le blocages des élus sur Twitter

Sputnik News du 14 janvier 2019 sur la reconnaissance faciale et ses dangers

LCI du 11 janvier 2019 sur la résistance des CPH pour les ordonnances Macron 

Le Parisien et l'Express du 9 janvier 2019 sur la cagnotte Leetchi du boxeur Dettinger

France 3 du 8 janvier 2019 sur les enjeux juridiques de la video surveillance en France

RT France du 8 janvier 2019 sur les pouvoirs du CSA

FranceInfo TV du 7 janvier 2019 sur les menaces de mort sur Twitter

20 Minutes du 4 janvier 2019 sur le vrai du faux des manifestations

CrowdFund Insider du 4 janvier 2019 sur le décret  blockchain

France Soir du 26 décembre 2018 sur la publication de l'identité des terroristes

RT France du 21 décembre 2018 sur la loi Fake news et le conseil constitutionnel

France 24 du 21 décembre 2018 sur la règlementation des drones

Radio  Méditerranée International du 20 décembre 2018 sur la GAV Carlos Goshn

France Soir du 11 décembre 2018 sur le travail à Noel et jour de l'an

RT France du 6 décembre 2018 sur le plan européen contre la désinformation

Capital du 30 novembre 2018 sur les food techs et la requalification des livreurs à vélos

Sputnik news du 26 novembre 2018 sur les robots soldats

20 Minutes du 25 novembre 2018 sur l'affaire Morandini

France Soir du 22 novembre 2018 sur la règlementation des trottinettes electriques

Femme actuelle du 22 novembre 2018 sur l'espionnage de son conjoint

RT France du 21 novembre 2018 sur la loi Fake News

Passeport Santé du 15 novembre 2018 sur le fichage ADN

Le Parisien du 14 novembre 2018 sur les fichiers de police

Dossier Familial du 14 novembre 2018 sur les Gilets Jaunes 

RT France du 13 novembre 2018 sur la liberté d'information

RT France du 6 novembre 2018 sur le rejet par le Sénat de la loi manipulation de l'information

Al Hurra du 5 novembre 2018 sur les mandats d'arrêts internationaux

France Info du 31 octobre 2018 sur les aides fiscales de l'Anah

Capital du 31 octobre 2018 sur la rupture conventionnelle

France Soir du 24 octobre 2018 sur les perquisitions et l'art 4 de la Constitution

RT France du 23 octobre 2018 sur la loi Fake news

BFM du 22 octobre 2018 sur la piétonnisation des berges

L'Est Républicain du 14 octobre 2018 sur la lutte contre le bizutage

Radio Classique du 11 octobre 2018 sur les sanction de l'ONU sur le port du voile

Le Parisien du 10 octobre 2018 sur le fichage des salariés

France Soir du 4 octobre 2018 sur le principe de fraternité

Al Hurra du 27 septembre 2018 sur la légalité d'une taxe Hallal

La Dépêche du Bassin du 27 septembre 2018 sur "l'affaire des Mille Potes"

Mieux VIvre votre argent de septembre 2018 sur les Ehpad

L'Express du 17 septembre 2018 sur l'algorithme antifraude de Bercy

Sputnik News du 14 septembre sur la taxation des Gafa

Radio Méditerranée International du 11 septembre 2018 sur les critiques envers la CPI

Ouest France du 8 septembre 2018 sur les dangers du covoiturage

Society du 7 septembre 2018 sur l'espionnage entre conjoints

France Soir du 6 septembre 2018 sur la loi ELAN et les locataires de HLM

RT France du 5 septembre 2018 sur le rapport Caps-Irsem

France 2 du 1er septembre 2018 au JT 20 h sur l'affaire BlablaCar 

France Info du 29 août 2018 sur les prélèvements ADN chez Prisma

BFMTV du 21 août 2018 sur les marchands de sommeil

RMC du 21 août 2018 interview par JJ Bourdin sur la soumission de persones vulnérables à un habitat indigne

France 2 du 20 août 2018 au JT de 20h pour parler lutte contre les marchands de sommeil

20 Minutes du 17 août 2018 sur la réquisition du scooter par un policier

Téléstar du 17 août 2018 sur l'affaire Morandini

France Info du 17 août 2018 sur la notion de réquisition par la police

Le Parisien du 16 août 2018 sur la réquisition d'un véhicule par la police

France Soir du 14 août 2018 sur les locations saisonnières

BFMTV du 10 août interview sur la responsabilité des gérants du camping inondé dans le Gard

Voici du 10 août 2018 sur le harcèlement de mineures par des youtubeurs

Le Parisien du 9 août 2018 sur le #balancetonyoutubeur

Sud Radio le 8 août 2018 sur le régime juridique des piscines familiales

Sputnik News du 8 août 2018 sur les néonicotinoïdes et le recours européen de Bayer 

Capital du 7 août 2018 sur le droit à la déconnexion

France Soir du 6 août 2018 sur le sexe au travail

Têtu du 6 août 2018 sur l'affaire Barnum

Capital du 3 août 2018 sur la responsabilité pénale des mineurs

RT France du 26 juillet 2018 sur la loi sur la loi Fake news

France Soir du 25 juillet 2018 sur le délit d'upskirting

France Info du 12 juillet 2018 sur l'accès des parents au compte Facebook de leur fille décédée

Radio Classique du 10 juillet 2018 sur le port du maillot de bain en ville

France Soir du 5 juillet 2018 sur les recours pour les notes du bac

France Soir du 4 juillet 2018 sur les enjeux juridiques de l'intelligence artificielle

RT France du 4 juillet 2018 sur la loi sur la manipulation de l'information

Revue Sang Froid de juillet 2018 sur les mandataires sportifs

RT France du 26 juin 2018 sur le détournement de fonds publics

M6 du 18 juin 2018 sur l'affaire des 1000 potes

France Soir du 18 juin 2018 sur les locations AirBnB

France24 du 5 juin 2018 sur le cannabis et la vente de CBD

Al Hurra du 30 mai 2018 sur la libértion des djihadistes fraçais

RT France du 30 mai 2018 sur la loi sur la manipulation des fausses informations

LCI du 28 mai 2018 sur la légitime défense

Aleteia du 25 mai 2018 sur le RGPD

France Soir du 25 mai 2018 sur le RGPD

BFM du 23 mai 2018 sur les enfants youtubeurs

RT France du 23 mai 2018 sur la loi Fake news

Le blog du modérateur du 22 mai 2018 sur le RGPD

Sputnik news du 22 mai 2018 sur la baisse des allocations sociales

Dernières Nouvelles Alsace du 21 mai 2018 sur les testaments numériques

Catherine Daar LIve du 17 mai 2018 sur le RGPD

Radio Classique du 14 mai 2018 sur les raids numériques

Agoravox du 4 mai 2018 sur le droit des robots

RT France du 30 avril 2018 sur la loi Fake News

Le Figaro du 27 avril 2018 sur le cadre légal des émojis

France 3 Corse du 25 avril 2018 sur le statut des repentis

France Soir du 25 avril 2018 sur le paiement des impôts

Huffington Post du 18 avril 2018 sur les remboursements de billets par la SNCF

Sud Ouest du 18 avril 2018 sur la correctionnalisation de l'affaire des viols à Arcachon

France Soir du 17 avril 2018 sur les affaires Lelandais

France Info du 17 avril 2018 sur les grèves Sncf

France 3 du 17 avril 2018 sur le remboursement des billets pendant les grèves

Marianne du 6 avril 2018 sur la police prédictive

RT France du 5 avril sur le projet de loi fake news

France Soir du 5 avril 2018 sur les CGU de Facebook

MediakWest du 5 avril 2018 sur le droit du ESport 

RT France du 1er avril 2018 sur les contrôles douaniers transfrontaliers

L'Humanité du 30 mars 2018 sur le projet Big date de Marseille

Revue Sang Froid du 29 mars 2018 sur le cyberHarcèlement

Village de la Justice du 26 mars 2018 sur le secret professionnel des avocats

France Soir du 21 mars 2018 sur la grève SNCF et les droits des usagers

Public Sénat du 19 mars 2018 débat sur le Projet de loi Données personnelles

France 24 du 19 mars 2018 sur la lutte contre la haine sur internet

France Soir du 16 mars 2018 sur l'outrage sexiste et le harcèlement

RT France du 15 mars 2018 sur les poursuites contre Aple et Google pour pratiques abusives

Al Hurra du 15 mars 2018 sur la réforme des prisons

La Tribune du 12 mars 2018 ur l'égalité salariale

Arte du 9 mars 2018 débat sur l'égalité salariale

France 24 du 1er mars 2018 sur la diffusion d'images violentes sur internet

France Soir du 27 février 2018 sur l'ouverture de la PMA 

Al Hurra du 26 février 2018 sur le PL sur la déradicalisation

RT France du 23 février 2018 sur l'interdiction du voile intégral en Europe

Les Echos du 23 février 2018 sur l'affaire Pitch et la protection des marques

Sputnik news du 21 février 2018 sur le statut de demandeur d'asile

France Soir du 19 février 2018 sur l'enregistrement d'une personne à son insu

M6 du 19 février 2018 sur le statut des repentis

Le Parisien Eco du 5 février 2018 sur le coût d'un stagiaire

France Soir du 5 février 2018 sur le don d'organes http://www.francesoir.fr/societe-sante/don-organe-refus-consentement-presume-quelles-regles-cadre-legal-carte-donneurs-etats-generaux-bioethique-loi-droit-thierry-vallat-avocat

Public Sénat du 31 janvier 2018 débat sur les voitures autonomes https://www.dailymotion.com/vid

France 2 du 29 janvier 2018 débat sur le revenge Porn https://www.france.tv/france-2/je-t-aime-etc/404927-revenge-porn-nouveau-danger.html

20 Minutes du 25 janvier 2018 sur la reconnaissance faciale dans les lycées http://www.20minutes.fr/societe/2208103-20180125-video-education-questions-posent-reconnaissance-faciale-abords-lycees-paca

20 Minutes du 24 janvier 2018 sur l'affaire Jeremstar et la preuve par Snapchat http://www.20minutes.fr/high-tech/2208271-20180124-video-affaire-jeremstar-video-postee-snapchat-peut-servir-preuve-devant-justice

France Soir du 19 janvier 2017 sur le bitcoin  http://www.francesoir.fr/tendances-eco-france/bitcoin-peut-creer-societe-dont-le-capital-constitue-de-crypto-monnaies-apport-numeraire-evaluation

France Soir du 19 janvier 2017 sur JeremStar et le revenge Porn http://www.francesoir.fr/culture-medias/affaire-jeremstar-buzz-blogueur-voulait-parler-de-revenge-porn-video-intime-masturbation-aqababe-dans-le-prochain-numero-salut-les-terriens-c8-slt-thierry-ardisson

France 2 du 17 janvier 2018 JT de 20h sur l'expulsion des Zadistes de NDDL

Editions Francis Lefebvre du 17 janvier 2018 sur la fiscalité es bitcoins https://www.efl.fr/actualites/fiscal/benefices-professionnels/details.html?ref=r-00a8a0ff-a6c0-4f7c-ab27-79e6f19f567f

ETB du 12 janvier 2018 sur la trêve hivernale en France

France 5 du 10 janvier 2018 interview dans C dans l'Air sur l'infraction d'outrage sexiste

M6 du 4 janvier 2018 dans le JT sur l'égalité salariale https://www.youtube.com/watch?v=XLyznd6NW28

Europe 1 du 4 janvier 2018 débat sur les fakes news http://www.europe1.fr/societe/une-loi-contre-les-fake-news-un-vrai-casse-tete-3537071

JDD du 1er janvier 2018 interview sur les sextorsions par internet http://www.lejdd.fr/societe/sextorsion-quand-les-hommes-sont-pris-pour-cibles-sur-internet-3533942

France 5 du 30 décembre 2017 interview pour C Dans l'air sur l'éthique des voitures autonomes

RT France du 30 décembre 2017 interview sur l'algorithme de Bercy traqueur de fraude fiscale 

Village de la justice du 28 décembre 2017 sur les amendes pour stationnement impayées https://www.village-justice.com/articles/stationnement-impaye-qui-change-1er-janvier-2018-avec-fps-recouvrement-des,26798.html?utm_source=dlvr.it&utm_medium=twitter&utm_campaign=RSS

Sputnik International du 22 décembre 2017 sur WhatsApp et Facebook https://sputniknews.com/business/201712221060238374-facebook-whatsapp-france-sanctions-commentary/

Sputnik France du 20 décembre 2017 débat sur la fin de la neutralité du Net https://fr.sputniknews.com/radio_desordre_mondial/201712211034444080-internet-usa/

France Soir du 20 décembre sur la trêve hivernale http://www.francesoir.fr/societe-faits-divers/treve-hivernale-logement-squat-loyers-impayes-expulsion-jugement-regles-droit-avocat-dates-novembre-mars-thierry-vallat-conditions

FranceInfoTV du 18 décembre 2017 Interview sur les drones

Les Echos du 14 décembre sur les bitcoins https://www.lesechos.fr/finance-marches/marches-financiers/0301023356585-impots-les-5-questions-a-se-poser-avant-dacheter-des-bitcoins-2138454.php

Europe 1 du 13 décembre 2017: interview sur les bitcoins http://www.europe1.fr/emissions/l-invite-d-europe-1-nuit/quelles-sont-les-precautions-a-prendre-pour-un-detenteur-de-bitcoins-3520253

Le Figaro du 12 décembre 2017 sur la fiscalité des bitcoins http://www.lefigaro.fr/conjoncture/2017/12/12/20002-20171212ARTFIG00260-le-bitcoin-dans-le-viseur-de-tracfin.php?utm_term=Autofeed&utm_campaign=Echobox&utm_medium=Social&utm_source=Twitter#link_time=1513113820

Runway Magazine du 12 décembre 2017 sur le harcèlement sexuel dans la mode https://runwaymagazines.com/models-sexual-harassment-world-fashion/

Capital du 7 décembre 2017 sur la fiscalité du bitcoin https://www.capital.fr/votre-argent/le-casse-tete-de-limposition-du-bitcoin-1259539

France Soir du 6 décembre 2017 sur le droit des achats en ligne http://www.francesoir.fr/lifestyle-shopping/les-regles-de-la-vente-achat-en-ligne-et-les-pieges-eviter-que-faire-livraison-remboursement-prix-deffectueux-thierry-vallat-droit-loi

20 Minutes du 4 décembre 2017 sur le projet Big Data à Marseille http://www.20minutes.fr/marseille/2180687-20171204-video-marseille-veut-utiliser-donnees-informatiques-ville-plus-sure-big-brother-prouesse-technologique

Sputnik News du 1er décembre 2017 interview sur la surtaxe sur les dividendes https://fr.sputniknews.com/france/201712011034123938-conseil-constitutionnel-entreprises-franaises/

Rolling Stone du 24 novembre 2017 sur Facebook royaume des morts https://www.rollingstone.fr/facebook-royaume-morts/

L'Express du 22 novembre 2017 sur le travail des enfants dans les chaines YouTube https://lexpansion.lexpress.fr/high-tech/youtube-ferme-la-chaine-toy-freaks-apres-des-accusations-de-maltraitance_1962598.html

France 24 du 14 novembre 2017 sur le financement de Daech par Lafarge

Mag RH du 13 novembre 2017  sur le droit des robots

Ouest France du 9 novembre 2017 sur le cyber-harcèlement https://www.ouest-france.fr/societe/harcelement-entre-enfants-le-smartphone-est-une-arme-de-destruction-massive-5367545

20 minutes du 8 novembre 2017 sur l'immunité européenne en matière de tweets   http://www.20minutes.fr/societe/2149443-20171012-provocation-haine-raciale-elu-fn-steeve-briois-peut-etre-juge-tweet

LCI du 3 novembre 2017 débat sur le congé paternité

Le Parisien du 3 novembre 2017 sur l'affaire Morandini http://www.leparisien.fr/week-end/des-revelations-des-inrocks-a-la-greve-d-itele-retour-sur-l-affaire-morandni-31-10-2017-7366032.php

TF1 JT de 13H du 31 octobre 2017 sur le scandale des voitures-épaves http://www.lci.fr/france/jt-13h-des-milliers-de-voitures-epaves-remises-en-circulation-illegalement-2068981.html

France Inter du 31 octobre 2017 sur la mort numérique https://www.franceinter.fr/societe/il-y-aura-bientot-plus-de-morts-que-de-vivants-sur-facebook

France Soir du 30 octobre 2017 sur les déguisements pour Halloween http://www.francesoir.fr/lifestyle-vie-quotidienne/halloween-costume-djihadistes-ou-clowns-tueurs-ces-deguisements-sont-ils-legal-terroriste-blague-faire--peur-plaisanterie-interdit-sanction-peines-avocat-thierry-vallat-prank-etat-urgence?platform=hootsuite

C8 du 23 octobre 2017 sur les travailleurs détachés http://replay.c8.fr/video/1466731

LCI du 20 octobre 2017 débat sr le harcèlement https://youtu.be/BDuLn_4TxwE

AlHurra du 20 octobre 2017 sur le financement de Daech par Lafarge https://www.facebook.com/alhurra/videos/10155602464496136/?hc_ref=ARQgkPNFcNTScvQwmjzSA2zDzZe3kV8d5fF1INqDWj-z8U_qUXakoS8r4QI_D50BR6A&pnref=story

CNews le 18 octobre 2017 sur le harcèlement

L'Express du 17 octobre sur le harcèlement de rue http://www.lexpress.fr/actualite/societe/harcelement-de-rue-une-notion-difficile-a-definir-et-compliquee-a-sanctionner_1953233.html

France Soir du 17 octobre 2017 sur le financement de Daesh par Lafarge http://www.lexpress.fr/actualite/societe/harcelement-de-rue-une-notion-difficile-a-definir-et-compliquee-a-sanctionner_1953233.html

LCI du 16 octobre 2017 sur le harcèlement de rue http://www.lci.fr/societe/harcelement-de-rue-agressions-sexuelles-sifflements-mains-aux-fesses-regards-insistants-frottements-insultes-salaces-tombe-sous-le-coup-de-la-loi-2067534.html

BFM du 15 octobre 2017 débat sur le harcèlement https://youtu.be/_S0NO-Jx9sE

Public Sénat débat du 11 octobre 2017 sur le harcèlement de rue https://twitter.com/twitter/statuses/918156787974422528

LCI du 10 octobre 2017 sur le fichage illégal de salariés http://www.lci.fr/societe/fichage-d-interimaires-chez-leroy-merlin-jusqu-ou-l-employeur-peut-il-legalement-aller-2066948.html?utm_source=dlvr.it&utm_medium=twitter

Le Figaro du 8 octobre 2017 sur le fichage illégal de salariés Leroy Merlin http://www.lefigaro.fr/social/2017/10/08/20011-20171008ARTFIG00111-boulet-branleur-un-listing-des-interimaires-de-leroy-merlin-declenche-une-enquete-interne.php

Le Parisien du 2 octobre 2017 sur l'interdiction de vapoter au bureau http://La vapoteuse au travail, c'est interdit... sauf exception

FranceInfo TV du 30 septembre 2017 sur les CGU des réseaux sociaux https://www.youtube.com/watch?v=1zfUMU8D3Pg&feature=youtu.be

Runway Magazine du 18 septembre 2017 La Haute Couture pour les nuls http://runwaymagazines.com/haute-couture-dummies/

Le Monde du 18 septembre 2017 sur les Hacker Houses http://www.lemonde.fr/festival/article/2017/09/18/hackerhouses-le-reve-americain-a-tout-prix_5187246_4415198.html

LCI du 14 septembre 2017 sur le travail des enfants sur les chaines YouTube http://www.lci.fr/societe/enfants-video-youtube-studio-bubble-teales-swan-the-voice-demo-jouets-travail-illegal-loisir-prive-web-2064120.html

Sputnik News du 23 août 2017 sur la réforme du travail détaché https://fr.sputniknews.com/international/201708241032771662-reforme-travai-macron/

Néon Mag du 22 août 2017 sur le logiciel espion Fireworld http://www.neonmag.fr/polemique-fireworld-propose-un-logiciel-espion-pour-decouvrir-si-votre-fils-est-gay-491263.html

France Soir du 21 août 2017 sur les litiges des locations saisonnières http://www.francesoir.fr/lifestyle-vie-quotidienne-votre-vacances-location-saisonniere-maison-hotel-tourne-mal-comment-se-defendre-en-cas-de-litige-droit-loi-regles-avocat-conseils-que-faire-caution-arrhes-acompte-remboursement-degats-internet-thierry-vallat-avocat

France Soir du 8 août 2017 sur le bras de fer entre Bruxelles et les Gafa dont les CGU sont illégales http://www.francesoir.fr/tendances-eco-monde/conditions-generales-utilisation-internet-pourquoi-union-europeenne-menace-facebook-google-et-twitter-utilisateurs-comission-sanctions-amendes-droit-europeen-avocat-thierry-vallat-consommateurs

Lexbase du 27 juillet 2017 édition professions n*245 sur la contestation des honoraires d'un avocat

France Soir du 24 juillet  sur les responsabilités en cas de noyade dans une piscine http://www.francesoir.fr/societe-faits-divers/quelle-responsabilite-en-cas-de-noyade-dans-votre-piscine-familiale-particuliers-enfants-regles-dispositif-securite-infractions-peines-amendes-voisin-avocat-loi-droit-thierry-vallat

Libération du 12 juillet 2017 sur les drones de livraison http://www.liberation.fr/futurs/2017/07/12/vos-achats-livres-par-drone-ce-n-est-pas-pour-tout-de-suite_1583307

France Soir du 7 juillet 2017 sur la règlementation des piscines http://www.francesoir.fr/lifestyle-vie-quotidienne/noyade-quelles-regles-de-securite-pour-les-piscines-en-france-privee-publique-danger-risques-responsabilite-alarme-barriere-couverture-abris-normes-loi-avocat-thierry-vallat

Linfo.re du 12 juin 2017 sur les déclarations de revenus http://www.linfo.re/france/societe/720805-declaration-de-revenus-ce-qu-il-faut-faire-en-cas-d-oubli-ou-d-erreur

L'Express du 31 mai 2017 sur l'affaire Ferrand http://www.lexpress.fr/actualite/societe/justice/affaire-ferrand-pourquoi-la-justice-n-ouvre-pas-d-enquete-pour-l-instant_1913481.html

Libération du 30 mai 2017 Peut-on se promener en maillot de bain en ville http://www.liberation.fr/france/2017/05/30/a-t-on-le-droit-de-bronzer-en-maillot-de-bain-en-ville_1573287

France Soir du 29 mai 2017: surbookings quels sont vos droits ? http://www.francesoir.fr/lifestyle-vie-quotidienne/surbooking-votre-avion-est-surbooke-quels-sont-vos-droits-compagnies-aeriennes-indemnisations-loi-droit-r%C3%A8gles-avocat-thierry-vallat-montant-remboursement

France Soir du 25 mai 2017 travaux, caution DG sortie du locataire quels recours ? http://www.francesoir.fr/lifestyle-vie-quotidienne/appartement-depart-sortie-travaux-caution-etat-des-lieux-que-faire-en-cas-de-litige-locataire-proprietaire-regles-droit-avocat-thierry-vallat-loi-recours

Sputnik News du 19 mai 2017 sur l'amende infligée à Facebook par la Commission européenne https://fr.sputniknews.com/international/201705191031458040-facebook-amende-argent/

France Inter du 19 mai 2017 sur les livraisons par drones d'Amazon

BFMTV du 9 mai 2017 sur la légalité de l'allaitement en public http://www.bfmtv.com/international/une-elue-australienne-allaite-son-bebe-au-parlement-serait-ce-possible-en-france-1160372.html

Runway Magazine du 7 mai 2017 sur le décret sur les photos retouchées de mannequins http://runwaymagazines.com/new-fashion-law/

Figaro du 6 mai 2017 sur le délit de diffusion de fake news  http://www.lefigaro.fr/elections/presidentielles/2017/05/06/35003-20170506ARTFIG00096-que-risquent-ceux-qui-diffusent-de-fausses-informations-a-l-approche-du-scrutin.php

France Soir du 6 mai 2017 sur le fonctionnement des bureaux de vote http://www.francesoir.fr/politique-france/presidentielle-bureaux-de-vote-ce-qui-est-autorise-ce-qui-est-interdit-election-scrutin-regles-loi-droit-thierry-vallat?platform=hootsuite

L'Express du 4 mai 2017 sur l'article 97 du code electoral http://www.lexpress.fr/actualite/politique/elections/compte-aux-bahamas-pourquoi-marine-le-pen-n-est-pas-inquietee-par-l-enquete_1905248.html

L'Express entreprise du 29 avril 2017 sur l'interdiction du vapotage au travail http://lentreprise.lexpress.fr/rh-management/droit-travail/vapoter-au-travail-sera-interdit-le-1er-octobre-2017_1903561.html

France Soir du 23 avril 2017 sur l'annulation de l'élection présidentielle http://www.francesoir.fr/politique-france/peut-annuler-election-presidentielle-resultats-fraude-scrutin-vote-conseil-constitutionnel-thierry-vallat-avocat-droit-loi

France Soir du 20 avril 2017 sur le report de l'election présidentielle http://www.francesoir.fr/politique-france/election-presidentielle-pourrait-elle-etre-reportee-report-premier-tour-empechement-candidat-thierry-vallat-avocat-mort-attentat-retrait

France Soir du 19 avril 2017 sur les sondages en période électorale http://www.francesoir.fr/politique-france/presidentielle-les-regles-relatives-aux-sondages-pendant-la-campagne-officielle-marge-erreur-candidats-medias-premier-second-tour-droit-regles-loi-avocat-thierry-vallat-fiabilite-csa-internet-en-ligne

France Soir du 7 avril 2017 sur les emplois fictifs présumés du FN http://www.francesoir.fr/politique-france/emplois-fictifs-front-national-fn-presumes-au-conseil-regional-du-nord-pas-de-calais-que-risquent-david-rachelin-enquete-premiminaire-poursuites-peines-avocat-thierry-vallat

France Soir du 14 mars 2017 sur le port du foulard au travail http://www.francesoir.fr/societe-faits-divers/port-du-voile-au-travail-laicite-et-discriminations-la-justice-europeenne-tranche-foulard-loi-droit-cjue-avocat-thierry-vallat-islam-religions?platform=hootsuite

Radio Orient du 14 mars 2017 itw sur l'interdiction du port du voile en entreprise http://www.radioorient.com/cour-europeenne-une-entreprise-peut-interdire-le-port-de-signes-religieux/

France Soir du 11 mars 2017 sur la violation du secret de l'instruction http://www.francesoir.fr/politique-france/penelopegate-qu-est-ce-que-la-violation-du-secret-de-instruction-francois-fillon-penelope-parquet-national-financier-pnf-juges-avocats-thierry-vallat-droit-proc%C3%A9dure

Sputnik News du 10 mars 2017 débat sur l'intelligence artificielle https://fr.sputniknews.com/radio_desordre_mondial/201703101030396959-intelligence-artificielle/

Agefi Actifs du 3 mars 2017 sur l'affaire Apollonia http://www.agefiactifs.com/droit-et-fiscalite/article/affaire-apollonia-letau-se-resserre-autour-des-76473

France Soir du 1er mars 2017 sur le droit à l'oubli sur internet http://www.francesoir.fr/lifestyle-vie-quotidienne-droit-oubli-sur-internet-comment-marche-le-droit-au-dereferencement-moteur-recherche-google-vie-prive-referencement-lois-cnil-europe-justice-droit-thierrry-vallat-avocat-disparaitre

Journal du Management juridique n°55 du 28 février 2017 sur l'obligation de l'employeur de dénoncer ses salariés chauffards http://fr.calameo.com/read/000000178bf08874a4147

L'Opinion du 23 février 2017 sur la plainte pour faux visant Audrey Azoulay http://www.lopinion.fr/edition/politique/ministre-audrey-azoulay-visee-plainte-faux-en-ecriture-publique-120000

France Soir du 22 février 2017 sur la notion de conflit d'intérêt http://www.francesoir.fr/politique-france/affaire-solere-la-notion-de-conflit-interet-en-question-polemique-cadre-legal-loi-thierry-vallat-prise-illegal-interet-fillon-hatvp-cahuzac-deputes-elus

LCI du 17 février 2017 itw sur le slogan en anglais de Paris 2024 http://www.lci.fr/sport/jo-2024-plusieurs-associations-attaquent-le-slogan-en-anglais-de-paris-la-plainte-peut-elle-aboutir-2026377.html

Public Sénat du 14 février 2017 sur le délit de consultation de site terroriste https://www.publicsenat.fr/emission/senat-360/le-nouveau-rendez-vous-de-l-information-senatoriale-53205 

France Soir du 11 février 2017 sur la notion de viol dans l'affaire Théo http://www.francesoir.fr/societe-faits-divers/affaire-theo-aulnay-sous-bois-partir-de-quand-peut-parler-de-viol-violences-loi-droit-avocat-thierry-vallat-policiers-matraque-juge-igpn

BFMTV du 10 février 2017: itw sur les caméras piétons de la police municipale http://www.bfmtv.com/police-justice/cameras-pietons-pour-policiers-un-systeme-anti-violence-et-anti-bavure-1100293.html

France24 du 9 février 2017: itw sur le Parquet national financier http://www.france24.com/fr/20170209-avocats-francois-fillon-penelope-pnf-parquet-national-financier-dessaisir-justice

La Croix du 7 février 2017: itw sur la compétence du Parquet national financier sur l'affaire Fillon http://www.la-croix.com/France/Politique/Le-parquet-national-financier-competent-dans-laffaire-Fillon-2017-02-07-1200823089?utm_medium=Social&utm_campaign=Echobox&utm_source=Twitter&utm_term=Autofeed#/link_time=1486475997

Le Monde du 6 février 2017 itw sur le phishing ou le hameçonnage http://www.lemonde.fr/argent/article/2017/02/06/hameconnage-la-banque-doit-vous-rembourser-si-elle-ne-peut-prouver-votre-negligence_5075315_1657007.html

Libération du 27 janvier 2017 itw sur le sexisme et la modération sur Facebook http://www.liberation.fr/france/2017/01/27/pourquoi-des-feministes-denoncent-la-moderation-de-facebook_1543436

France Soir du 25 janvier 2017 sur les emplois fictifs http://www.francesoir.fr/politique-france/emplois-fictifs-d%C3%A9finition-quelle-peine-encourue-risques-penelope-fillon-fran%C3%A7ois-loi-droit-jurisprudence-thierry-vallat-avocat

Radio Méditerranée Internationale Interview du 23 janvier 2017 sur les vignettes anti-pollution 

Sputnik News du 20 janvier 2017 interview sur le soft power de Facebook https://fr.sputniknews.com/france/201701201029689183-facebook-france-startup/

France Soir du 18 janvier 2017 sur la responsabilité d'EDF en cas de coupures http://www.francesoir.fr/lifestyle-vie-quotidienne/vague-de-froid-quelle-responsabilite-pour-edf-fournisseurs-en-cas-de-coupures-de-courant-electricit%C3%A9-thierry-vallat-droits-lois

Slate du 18 janvier 2017 sur le harcèlement à domicile http://www.slate.fr/story/134768/services-aboli-frontieres-intime

France Soir du 17 janvier 2017: décryptage de l'affaire Buffy Mars http://www.francesoir.fr/societe-faits-divers/sms-de-drague-quelles-sanctions-pour-le-technicien-orange-et-les-harceleurs-de-buffy-mars-harcelement-twitter-facebook-texto

BFMTV du 17 janvier 2017 interview sur la gifle à Manuel Valls et ses conséquences http://www.bfmtv.com/police-justice/manuel-vals-gifle-que-risque-le-jeune-homme-interpelle-1083960.html

Le Parisien du 17 janvier 2017 sur l'affaire Buffy Mars http://www.leparisien.fr/laparisienne/societe/harcelement-une-blogueuse-denonce-puis-se-fait-harceler-sur-twitter-17-01-2017-6579348.php#xtor=AD-1481423553

Le Figaro du 13 janvier 2017 interview sur le fichage illégal des bénévoles de la Croix-Rouge http://www.lefigaro.fr/actualite-france/2017/01/13/01016-20170113ARTFIG00351-quand-la-croix-rouge-fichait-ses-benevoles-en-secret.php

Le Parisien du 7 janvier 2017 interview sur la fermeture du site Babylon 2.0 http://www.leparisien.fr/societe/sur-facebook-babylone-2-0-enfin-ferme-le-groupe-partageait-des-photos-volees-de-femmes-nues-07-01-2017-6538266.php

Neon Mag du 6 janvier 2017 interview sur les groupes Babylon 2.0 et le revengeporn http://www.neonmag.fr/babylone-2-0-le-groupe-facebook-secret-qui-diffuse-des-photos-volees-de-femmes-nues-482095.html

LCI du 28 décembre 2016 interview sur les caméras pour les policiers municipaux http://www.lci.fr/societe/cameras-sur-les-policiers-municipaux-et-les-agents-de-securite-sncf-et-ratp-vous-avez-ete-filme-voici-ce-que-dit-la-loi-2019176.html

Village de la justice du 28 décembre 2016 sur la résurrection numérique et le droit à l'image http://www.village-justice.com/articles/Resurrection-numerique-quelle-legalite-exploitation-image-artiste-mort,23852.html

Sputnik news du 21 décembre 2016 sur le rachat de WhatsApp par Facebook https://fr.sputniknews.com/points_de_vue/201612211029289418-facebook-mensonge-bruxelles/

C8 du 14 décembre 2016 sur la règlementation des drones http://www.c8.fr/c8-docs-mags/pid8478-c8-focus.html

LCI du 30 novembre 2016 sur la surveillance des échanges internet par l'employeur http://www.lci.fr/societe/vie-privee-au-travail-votre-employeur-a-t-il-le-droit-de-surveiller-ce-que-vous-faites-sur-internet-2015021.html

Weka du 16 novembre 2016 sur le rétablissement de l'autorisation de sortie de territoire pour les mineurs http://www.weka.fr/actualite/administration/article/lautorisation-de-sortie-du-territoire-pour-les-mineurs-non-accompagnes-redevient-obligatoire-a-partir-du-15-janvier-2017-44552/

Gameblog du 1er novembre 2016 sur le cadre légal des agressions sexuelles virtuelles http://www.gameblog.fr/news/63348-agressee-sexuellement-en-realite-virtuelle-elle-raconte-son-

Konbini du 21 octobre 2016: interview sur le Cyber-harcèlement http://www.konbini.com/fr/tendances-2/cyberharcelement-marre-etre-victime/

Lexbase Ed Professions du 29 septembre 2016 sur le devoir de conseil des avocats

RTS du 29 septembre 2016: itw sur les actions en justice contre Pokemon Go

Vice News du 20 septembre 2016: que risque l'auteur d'une fausse attaque terroriste ? https://news.vice.com/fr/article/que-risque-lauteur-dune-fausse-alerte-terroriste

BFMTv du 19 septembre 2016: débat sur le swatting http://www.bfmtv.com/mediaplayer/video/fausse-alerte-terroriste-un-adolescent-a-ete-arrete-dans-la-marne-865457.html

L'Express du 12 septembre 2016 sur l'affaire Morandini http://www.lexpress.fr/actualite/medias/jean-marc-morandini-veut-etre-entendu-rapidement-par-la-justice_1829584.html

Sputnik News du 9 septembre 2016 débat sur les nouvelles technologies https://soundcloud.com/sputnik_fr/lancement-de-liphone-7-est-ce-que-la-technologie-nous-sauvera-dun-avenir-dystopique-ou-en-creera-t-elle-un

RMC du 8 septembre 2016: débat sur la lutte contre le sexisme http://rmc.bfmtv.com/mediaplayer/aud

BFMTV du 24 août 2016: interview sur les dangers de PokémonGo au bureau http://www.bfmtv.com/societe/jouer-a-pokemon-go-au-bureau-peut-s-averer-risque-1029223.html

France 3 du 12 août 2016 sur l'affaire Take Eat Easy http://france3-regions.francetvinfo.fr/paris-ile-de-france/paris/paris-la-fronde-des-livreurs-de-repas-velo-1064893.html

Europe 1 du 12 août 2016: interview sur le dossier Take Eat Easy http://www.europe1.fr/emissions/europe-1-bonjour/europe-bonjour-julia-martin-120816-2818891

La Croix du 10 août 2016 sur la requalification des contrats des coursiers à vélo http://www.la-croix.com/Economie/Social/Les-livreurs-de-repas-a-velo-se-rebellent-2016-08-10-1200781385

France Inter du 3 août 216 sur les problèmes juridiques posés par l'appli Périscope https://www.franceinter.fr/emissions/le-debat-de-midi/le-debat-de-midi-03-aout-2016

BFMTV du 28 juillet 2016 sur le harcelement sexuel et le travail dissimulé http://www.bfmtv.com/mediaplayer/video/trois-plaintes-deposees-contre-jean-marc-morandini-846243.html

Les Inrocks du 20 juillet 2016: suite de l'affaire Morandini http://abonnes.lesinrocks.com/2016/07/19/actualite/enquete-pratiques-de-jean-marc-morandini-suite-11854401/

Rue89 L'Obs du 15 juillet 2016 sur la diffusion de contenus choquants sur internet http://rue89.nouvelobs.com/2016/07/15/nice-risquez-si-partagez-photos-victimes-264651

FranceTVInfo du 14 juillet 2016: interview sur l'affaire Morandini http://www.francetvinfo.fr/economie/medias/morandini/affaire-morandini-c-est-du-harcelement-caracterise-affirme-l-avocat-des-acteurs-des-faucons_1546669.html

Les Inrocks du 13 juillet 2016 sur les pratiques de la société de production de JM Morandini http://abonnes.lesinrocks.com/2016/07/12/actualite/enquete-pratiques-de-jean-marc-morandini-11852954/

Sputnik News du 11 juillet 2016 sur le droit à la déconnexion http://Thierry Vallat: Il faudra une charte détaillée qui indique ... - SoundCloud 

Radio Canada du 6 juillet 2016 Interview sur la condamnation de Lionel Messi pour fraude fiscale 

Sputnik News du 5 juillet 2016 sur les déclaration de Manuel Valls sur le dumping social et la directive de 1996 https://soundcloud.com/sputnik_fr/me-thierry-vallat-ca-me-semble-audacieux-de-dire-quon-nappliquerait-pas-la-directive?utm_source=soundcloud&utm_campaign=share&utm_medium=facebook

Slate du 1er juillet 2016 sur Serge Aurier et l'appli Periscope http://www.slate.fr/story/120325/serge-aurier-periscope-paye

Le Journal du Management n°52 (juillet-août 2016): fiscalité des bitcoins et cryptomonnaies http://fr.calameo.com/read/000000178209f1e043d9b

L'Opinion du 15 juin 2016 interview sur les conséquences juridiques du Jasta http://www.lopinion.fr/edition/international/terrorisme-en-voulant-punir-l-arabie-saoudite-senat-americain-provoque-104741?utm_source=twitter&utm_medium=social&utm_content=content&utm_campaign=cm

La Croix du 16 mai 2016 interview sur le litige entre Uber t l'Urssaf sur le statutd des chauffeurs http://www.la-croix.com/Economie/Social/Pour-l-Urssaf-le-chauffeur-Uber-est-un-salarie-2016-05-16-1200760509

Public Sénat du 13 mai sur les dangers de Périscope http://www.publicsenat.fr/lcp/politique/periscope-l-application-sans-limites-1347939

La Croix du 12 mai 2016 interview sur l'appli Periscope http://www.la-croix.com/France/Periscope-questions-apres-drame-2016-05-12-1200759614?utm_medium=Social&utm_source=Twitter&utm_campaign=Echobox&utm_term=Autofeed#/link_time=1463066713

Sputnik News du 10 mai 2016: interview sur le soutien des avocats français à leurs confrères turcs emprisonnés https://soundcloud.com/sputnik_fr/thierry-vallat-lordre-des-avocats-francais-est-solidaire-des-confreres-turcs-arretes

Public Sénat le 14 avril 2016: débat du sur le fichier PNR

20 MInutes du 14 avril 2016: un employeur qui demande un changement de prénom légal ou pas ? http://www.20minutes.fr/economie/1826595-20160414-employeur-demande-salarie-changer-prenom-legal

RMC du 25 mars 2016: interview de jean-Jacques Bourdin sur le fichier PNR http://www.thierryvallatavocat.com/2016/03/mise-en-place-d-un-fichier-pnr-europeen-et-lutte-contre-le-terrorisme-me-thierry-vallat-interroge-sur-rmc-le-25-mars-2016.html

Le Monde du 22 mars 2016: Peut-on être licencié pour utiliser les réseaux sociaux au travail http://www.lemonde.fr/emploi/article/2016/03/22/peut-on-etre-licencie-pour-utiliser-les-reseaux-sociaux-a-titre-personnel-au-travail_4888193_1698637.html

Sputniknews du 11 mars 2016 sur le jugement américan condamnant l'Iran à indeminiser les victimes du 11 septembre https://fr.sputniknews.com/points_de_vue/201603111023300130-iran-usa-11-septembre/

BFM Business du 3 mars 2016 sur l'usage de twitter au travail http://bfmbusiness.bfmtv.com/emploi/tweeter-4-fois-par-jour-au-travail-n-est-pas-un-motif-de-licenciement-957155.html

Ouest France du 25 février 2016 Interdiction du vapotage dans les lieux publics http://www.ouest-france.fr/sante/addictions/tabac/vapotage-linterdiction-recommandee-dans-tous-les-lieux-publics-4056069

Sputniknews du 25 février 2016 sur l'amende fiscale de 1,6 milliard d'€ infligée à Google http://fr.sputniknews.com/points_de_vue/20160226/1022747386/france-google-impots.html#ixzz41XeliIC6

Le Parisien du 21 février 2016 sur le sextorsion http://www.leparisien.fr/faits-divers/les-sextorsions-envahissent-le-net-21-02-2016-5565269.php#xtor=AD-1481423553

Sputnik news du 18 février 2016 sur la légalité du blocage de sites internet http://fr.sputniknews.com/points_de_vue/20160218/1021896666/france-internet-blocage.html

Lexbase (n°641 du 28 janvier 2016): nom de domaine des avocats et art 10.5 du RIN http://images.lexbase.fr/sst/N0913BWQ.pdf

L'Humanité du 12 janvier 2016: le cadre légal du Esport  http://www.humanite.fr/loi-numerique-laddiction-portee-de-clic-595184

Village de Justice du 29 décembre 2015: La France se dote d'une nouvelle règlementation sur les drones civilshttp://www.village-justice.com/articles/France-dote-une-nouvelle,21130.html

La Tribune du 17 décembre 2015 sur l'indemnisation des victimes d'attentat http://www.latribune.fr/economie/france/attentats-de-paris-l-indemnisation-des-victimes-atteindrait-300-millions-d-euros-536831.html

D8 interview pour le magazine "En quête d'actualité" du 16 décembre 2015 : la règlementation des drones http://www.d8.tv/d8-docs-mags/pid5198-d8-en-quete-d-actualite.html?vid=1342386

Lexbase (n°636 du 10 décembre 2015): précisions sur la consultation des pièces pendant la garde à vue http://images.lexbase.fr/sst/N0227BWC.pdf

Village de la Justice du 23 novembre 2015: le droit de l'Esport dans le projet de loi numérique http://www.village-justice.com/articles/droit-sport-dans-Projet-Loi,20900.html

RT France du 10 novembre 2015: arrêt CEDH Dieudonné https://francais.rt.com/france/10045-cour-europeenne-droits-lhomme-rejette

Radio Orient: débat du 5 novembre 2015 sur la réforme du droit du travail http://www.radioorient.com/live/?tab=podcast&id=27826

Lexbase du 15 octobre 2015 sur la fragilisation des droits de la defense pendant la grève des avocats http://images.lexbase.fr/sst/N9379BUW.pdf

L'Express du 2 octobre 2015 sur les amendes pour jets de mégots sur la voie publique: http://votreargent.lexpress.fr/consommation/paris-est-elle-la-seule-ville-concernee-par-l-amende-pour-jet-de-megot_1721944.html

Lexbase du 17 septembre 2015 sur les perquisitions en cabinet d'avocats et l'arrêt CEDH Sérvulo c/Portugal http://www.presentation.lexbase.fr/sites/default/files/actualites/fichiers/lj_625.pdf

Archimag n°287 de septembre 2015: neutralité et loyauté des plateformes numériques http://Numéro 287 : Démat des factures : passage à l'acte

Vice News du 31 août 2015 sur les soupçons de chantage dans l'affaire Eic Laurent/Roi du Maroc https://news.vice.com/fr/article/les-deux-journalistes-francais-accuses-davoir-fait-chanter-le-roi-du-maroc-ont-donne-leur-version-des-faits

Village de la Justice du 21 août 2015: pour un véritable droit au renvoi d'audience http://www.village-justice.com/articles/Pour-veritable-droit-renvoi,20261.html

Version Fémina du 6 juillet 2015 sur les sanctions pour abandon de détritus sur la voie publiques

Lexbase du 2 juillet 2015 sur les honoraires de postulation 

France Info: interview du 10 juin 2015 sur l'interdiction de l'appli Gossip https://www.youtube.com/watch?v=o14NjTYrVVk

Sud Radio: débat du 4 juin 2015 sur portable et harcelement scolaire http://www.sudradio.fr/Podcasts/Seul-contre-tous/Gossip-il-faut-interdire-le-portable-avant-la-fin-du-lycee

L'Obs du 4 juin 2015 sur les drones de l'info

Libération du 3 juin 2015 sur l'application Gossip http://www.liberation.fr/societe/2015/06/03/gossip-l-appli-accusee-de-favoriser-le-harcelement_1322045

Europe 1 Interview du 2 juin 2015 sur le cyber harcèlement http://www.europe1.fr/societe/gossip-lapplication-dans-le-viseur-des-associations-1350076#utm_source=dlvr.it&utm_medium=twitter

Weka du 18 mai 2015: Pollution de l'air procdure d'infraction de la Commission Européenne contre la France http://www.weka.fr/actualite/developpement-durable/article/pollution-lair-particules-fines-procedure-dinfraction-commission-europeenne-contre-france/

La Tribune du 23 avril 2015: "2 ans après le Rana Plaza" interview sur le devoir de vigilance et responsabilité sociétale des entreprises  http://www.latribune.fr/edition-quotidienne/23-04-2015/focus/commerce-ce-que-le-rana-plaza-a-change-1447.html#enrichments_article

Lexbase (n°608 du 9 avril 2015): vers l'élaboration d'un véritable droit des drones http://images.lexbase.fr/sst/N6841BUW.pdf

Metronews du 23 mars 2015: interview sur les poursuites pénales contre les bénéficiaires d'un bug informatique dans une station service http://www.metronews.fr/info/bug-dans-une-station-service-de-l-herault-les-clients-m-insultaient-et-me-bousculaient-pour-pouvoir-faire-le-plein-a-5-euros/mocw!FhNku0n2vQraE/

Expoprotection du 16 mars 2015: "les employeurs condamnés à prévenir le burn-out" http://www.expoprotection.com/?IdNode=1571&Zoom=1fbf527b7549e1ea4635c97e6f06fcc0&Lang=FR

Europe 1: interview du 11 mars 2015 sur le swatting et les risques pénaux encourus http://www.europe1.fr/societe/swatting-que-risquent-les-auteurs-de-ces-canulars-made-in-usa-2396671

Weka du 9 mars 2015 "contrats de génération: un décret du 3 mars 2015 en facilite l'accès" http://www.weka.fr/actualite/emploi/article/contrats-generation-decret-du-3-mars-2015-en-facilite-lacces/

Vice News du 7 mars 2015: interview sur le jugement Facebook du 5 mars 2015 https://news.vice.com/fr/article/facebook-courbet-justice-francaise

LCI (6 mars 2015): interview sur le sexisme au travail http://videos.tf1.fr/infos/2015/le-sexisme-au-travail-redoutable-instrument-d-exclusion-8575434.html

Lexbase (n°603 du 5 mars 2015): braconniers du droit ou plate-forme juridique légale les enseignements du jugement avocat.net http://presentation.lexbase.fr/sites/default/files/actualites/fichiers/lj_603.pdf

Lexbase (n°601 du 12 février 2015): le droit d'accès de l'avocat au dossier complet de l'information http://www.presentation.lexbase.fr/la-lettre-juridique-ndeg601-du-12-fevrier-2015

Metronews du 10 février 2015: interview sur la fraude fiscale après le swissleaks http://www.metronews.fr/info/swissleaks-hsbc-fraudeurs-fiscaux-voici-les-bons-conseils-du-fisc-pour-vous-en-sortir/mobj!HKyMtcffg25A/ 

Vice News du 6 février 2015: interview sur la violation du secret de l'instruction  https://news.vice.com/fr/article/36-quai-orfevres

Lexbase (n°598 du 22 janvier 2015): "menaces de mort à un avocat" http://www.presentation.lexbase.fr/sites/default/files/actualites/fichiers/lj_598.pdf

ETV (14 janvier 2015): intervention dans le reportage du magazine d'information estonien Pealtnägija sur la contrefaçon http://uudised.err.ee/v/majandus/aee45037-b7f0-4356-9044-7277ab86724f

Le Nouvel Economiste du 9 janvier 2015: "défiscalisation immobilière, aides et conseils" http://www.lenouveleconomiste.fr/dossier-art-de-vivre/defiscalisation-immobiliere-aides-et-conseils-25647/

Weka du 15 décembre 2014:"le sandale des dons de RTT encore interdits de fait aux agents publics" http://www.weka.fr/actualite/rh-publiques-thematique_7849/le-scandale-du-don-de-rtt-encore-interdit-de-fait-aux-agents-publics-article_8628/

Le Figaro du 21 novembre 2014: "Crime organisé le nouveau statut des repentis" http://www.lefigaro.fr/actualite-france/2014/11/21/01016-20141121ARTFIG00436-crime-organise-le-nouveau-statut-du-repenti-en-cinq-questions.php

BFM Business l'Atelier numérique du 8 novembre 2014 débat sur la règlementation des drones civils http://bfmbusiness.bfmtv.com/mediaplayer/audio/bfm-0811-atelier-numerique-17h-18h-119937.html

RMC: interview du 31 octobre 2014 sur le démarchage des avocats

BFM Business émission-débat du 21 octobre 2014 sur la pénibilité au travail http://bit.ly/1wsG7lP

ExpoProtection du 13 octobre 2014: "les 6 décrets sur la pénibilité au travail viennent d'être publiés" http://www.expoprotection.com/site/FR/L_actu_des_risques_professionnels_naturels__industriels/Zoom_article,I1571,Zoom-fed7eb81350aeaa93a0129555ee4db66.htm 

Atlantico.fr (23 septembre 2014): interview sur les fraudes aux aides sociales par les britanniques installés en France http://www.atlantico.fr/decryptage/ces-britanniques-installes-en-france-pour-qui-aventure-tourne-au-cauchemar-pauvrete-voire-fraude-catharine-higginson-thierry-1760330.html#3buYAEZKEpoSO7wJ.01

Le Monde du Droit (9 septembre 2014): "faire et défaire la loi ALUR: quelle cohérence ?") http://www.lemondedudroit.fr/decryptages-profession-avocat/194351-faire-et-defaire-la-loi-alur-quelle-coherence-.html

LCP-Public Sénat ( 28 juin 2014): interview sur l'arrêt Baby Loup du 25 juin 2014 e le principe de laïcité https://www.youtube.com/watch?v=1Lui5Cma1lE

Le Figaro (17 juin 2014): interview sur les exonérations de taxe d'habitation http://www.lefigaro.fr/impots/2014/06/17/05003-20140617ARTFIG00302-taxe-d-habitation-les-exonerations-pourraient-faire-augmenter-les-impots.php

Cahiers Lamy du CE (n°138 de juin 2014): "attaques en règle contre le forfait-jours"http://www.wk-rh.fr/preview/BeDhHlEjDiJnIoHkKoHl/presse/cce/les_cahiers_lamy_du_ce_2014/attaques_en_regle_contre_le_forfait_jours__resistera-t-il_au_temps_qui_passe_

BFM TV (31 mai 2014): interview sur Google et le droit à l'oubli numérique https://www.youtube.com/watch?v=Jzyg0eCldiQ

Cahiers Lamy du CE (n°135 de mars 2014) : « vapoter au bureau : vrai droit ou fumeux détournement de la loi Evin ? »http://www.wk-rh.fr/actualites/detail/74306/vapoter-au-bureau-vrai-droit-ou-fumeux-detournement-de-la-loi-evin-.html

Journal du management juridique (mars 2014) : « Intensification de la lutte contre la fraude fiscale » http://issuu.com/legiteam/docs/jmj39/11?e=1003431/7212830

Cahiers Lamy du CE (n°132 de décembre 2013) :   http://www.wk-rh.fr/actualites/detail/71878/que-reste-t-il-du-repos-dominical-en-2013-l-imbroglio-autour-du-travail-le-dimanche.html

Terrafemina du 29 novembre 2013: ''Qu'est-ce que la notion de légitime défense?''  http://www.terrafemina.com/societe/societe/articles/33862-braqueur-tue-a-sezanne-quest-ce-que-la-notion-de-legitime-defense-.html 

TV News du 16 novembre 2013 "Le travail dominical": http://www.youtube.com/watch?v=ixE3IqtIUls

Metronews du 7 novembre 2013 "Il y a urgence à légiférer sur la géolocalisation des portables":http://www.metronews.fr/info/geolocalisation-des-portables-il-y-a-urgence-a-reflechir-a-une-loi/mmkf!XBe1c5mEcyITs/

Droit-Inc du 7 octobre 2013: "démarchage de clientèle: oui ou non ?" http://www.droit-inc.fr/article10825-Demarchage-de-clientele-Oui-ou-non

Europe 1 le 30 septembre 2013: "Travail le dimanche: quel impact économique" http://www.europe1.fr/Economie/Travail-le-dimanche-quel-impact-economique-1657923/

Revue Fémina du 3 au 9 juin 2013: "Accords emplois: ça change quoi ?

Revue Management (mars 2013): Article dans la revue "Management" de mars 2013: "Les contrats de génération: ce qui va changer"    

 

 

 

Le Cabinet En Images

Catégories