Cycle of doctoral meetings
“Law and technology” 2023
L’utilisation d’algorithmes dans un contexte de relation de travail est un domaine complexe qui évolue très rapidement et nécessite une attention particulière pour préserver les droits, la santé et les protections des travailleurs face à l’évolution technologique. Parmi les sujets de préoccupation, on peut mentionner la surveillance par les algorithmes du comportement des travailleurs, par exemple le suivi de leur productivité et du temps qu’ils consacrent à leurs tâches, la sélection algorithmique des travailleurs pour des promotions ou des licenciements, ou le risque de pratiques discriminatoires (notamment à l’embauche) résultant des préjugés algorithmiques à l’encontre de certains groupes de travailleurs. Cela soulève des questions quant à la protection de la vie privée des travailleurs et aux violations potentielles du droit du travail.
Animé par Prof. Florence Guillaume (Université de Neuchâtel), Prof. Jean-Philippe Dunand (Université de Neuchâtel), Prof. Laurent Gamet (Université Paris Grand-Est Créteil).
De 14h00 à 16h00 (sauf indication contraire), en présentiel à l’Université de Neuchâtel ou en ligne.
Comment faut-il réguler la parole en ligne sur les réseaux sociaux, dans le respect des valeurs de la liberté d’expression et de la presse ? Ces droits fondamentaux sont traditionnellement garantis, dans les médias traditionnels, par les lois adoptées par les Etats. La parole en ligne est, quant à elle, régulée principalement par les entreprises privées propriétaires des réseaux sociaux, généralement étrangères, qui adoptent des règles dont la mise en œuvre est souvent arbitraire et non transparente. Dans ce contexte d’autorégulation, on peut se demander quelle est la meilleure manière de protéger efficacement les utilisateurs des réseaux sociaux contre les nouvelles méthodes de surveillance et de manipulation numériques. Mais une nouvelle tendance a vu le jour, sur le modèle de la législation européenne, d’encadrer plus étroitement la manière dont les entreprises privées propriétaires des réseaux sociaux gèrent la parole en ligne, en leur imposant un principe de transparence et un certain nombre d’obligation de due diligence. Cette pression exercée sur les entreprises privées permettra-t-elle de garantir les droits des utilisateurs? Quelle pourrait être leur place, à l’avenir, dans la gouvernance des plateformes de réseaux sociaux?
Animé par les Prof. Florence Guillaume (Université de Neuchâtel), Prof. Florence G’Sell (Université de Lorraine) et Prof. Nathalie Pignard-Cheynel (Université de Neuchâtel)
De 10h00 à 12h00 (sauf indication contraire), en présentiel à l’Université de Neuchâtel ou en ligne.
Les économies virtuelles dans les jeux vidéo (in-game economies) sont des systèmes économiques qui permettent aux joueurs de réaliser des transactions en ligne pour acheter, vendre et échanger des biens virtuels tels que des devises, des objets, des personnages, des skins, etc. Ces transactions peuvent avoir lieu à l’intérieur du jeu, mais également en dehors du jeu, sur des sites web tiers. Les économies virtuelles dans les jeux vidéo ont des liens avec le monde réel, comme l’échange d’argent réel contre des devises virtuelles, la vente d’objets virtuels contre de l’argent réel ou même la fourniture rémunérée de services in-game. On peut se demander si ces économies nécessitent une réglementation pour éviter les abus tant des joueurs que de l’éditeur du jeu et si les joueurs méritent une protection particulière dans le monde du gaming. Pour aller plus loin, on pourrait s’interroger sur un futur possible des in-game economies en examinant les conséquences que pourrait entraîner l’avènement du Metaverse dans le jeu vidéo, notamment en offrant des économies virtuelles sophistiquées et des opportunités de jeu en ligne plus avancées. Les fintechs pourraient jouer un rôle important en tant que fournisseurs de solutions de paiement virtuelles et en aidant à protéger les joueurs contre les risques financiers et les fraudes.
Animé par les Prof. Florence Guillaume (Université de Neuchâtel), Prof. Marco Dell’Erba (Université de Zurich) et par Me Patrick Pithon (Bonnard Lawson).
De 14h00 à 16h00 (sauf indication contraire), en présentiel à l’Université de Neuchâtel ou en ligne.
L’intelligence artificielle (IA) est de plus en plus utilisée dans le secteur culturel, tant au stade de la consommation (p.ex. recommandations algorithmiques), qu’au stade de la production (p.ex. analyse des données d’usage) et de la création (p.ex. générateurs d’images et de textes, tels que ChatGPT, Dall-E 2 ou Midjourney). L’IA pose d’importants défis au droit. D’abord au stade des données entrantes (appelées aussi input data ou training data) : celles-ci peuvent-elles être réutilisées par une IA et si oui à quelles conditions ? Et les réponses diffèrent-elles selon qu’il s’agit de données originales, personnelles, techniques ou publiques ? Ensuite au stade des données sortantes (appelées aussi output data), celles-ci méritent-elles une protection et si oui à qui les attribuer ? Comme exemples récents, il suffit de songer aux œuvres générées par MidJourney, dont le “Théâtre d’opéra spatial“ proposé par Jason Allen et qui a remporté le prix de la plus belle œuvre d’art numérique au Colorado State Fair en 2022 ou le livre “Zarya of the Dawn“ de Kris Kashtanova, dont la protection a été reconnue de façon limitée par l’Office américain du droit d’auteur en 2023. L’atelier a pour but de discuter ces différentes questions sous l’angle du droit suisse et comparé. *Texte garanti 100% création humaine, réalisée sans IA.
Animé par les Prof. Florence Guillaume (Université de Neuchâtel), Prof. Yaniv Benhamou (Université de Genève), Prof. Alexandra Bensamoun (Université Paris-Saclay).
De 10h00 à 12h00 (sauf indication contraire), en présentiel à l’Université de Neuchâtel ou en ligne.
Le terme « deepfake » fait référence à toute manipulation de contenus audiovisuels au moyen d’algorithmes de deep learning organisés sous la forme de réseaux neuronaux. Même si le média synthétique ainsi créé n’est pas intrinsèquement illicite, les deepfakes sont souvent utilisés à des fins criminelles, notamment des vidéos à caractère pornographique modifiées par le biais de l’intelligence artificielle (IA) (deepfakes porn ; deepnudes) ou des vidéos visant à manipuler l’opinion publique (deepfakes news). Les deepfakes peuvent-ils être détectés et éliminés par un algorithme ? Sont-ils répréhensibles d’un point de vue pénal ? Quel est le rôle des plateformes en ligne dans la lutte contre les deepfakes utilisés à des fins criminelles ?
Animé par les Prof. Florence Guillaume (Université de Neuchâtel), Prof. Sabine Süsstrunk (Ecole polytechnique fédérale de Lausanne) et Prof. André Kuhn (Université de Neuchâtel)
De 13h00 à 15h00 (sauf indication contraire), en présentiel à l’Université de Neuchâtel ou en ligne.
« Comment utiliser ChatGPT dans le cadre du doctorat en droit?» est conçu pour offrir aux doctorant.e.s en droit les connaissances théoriques et pratiques nécessaires pour utiliser ChatGPT dans le cadre de leurs activités universitaires.
Ce cours de quatre heures comprend une présentation théorique sur les aspects techniques de cet outil (une heure), un atelier pratique (deux heures) et une séance consacrée au retour sur expérience et aux perspectives d’avenir (une heure). Ce cours permettra aux doctorant.e.s d’acquérir une bonne compréhension de la manière d’utiliser ChatGPT de manière consciente et efficace dans le cadre de leur travail doctoral. A noter que ce cours se concentre spécifiquement sur l’utilisation de ChatGPT pour les travaux de doctorat en droit et ne couvre pas les aspects plus larges de l’intelligence artificielle (IA).
Objectifs du cours:
- Apprendre à formuler des questions de recherche et des hypothèses susceptibles d’être explorées à l’aide de ChatGPT.
- Acquérir des connaissances sur la manière d’utiliser ChatGPT de manière éthique et responsable dans le cadre d’un travail universitaire.
- Découvrir le potentiel de ChatGPT pour améliorer la recherche et la rédaction juridiques.
- Comprendre les capacités et les limites de ChatGPT dans le contexte de la recherche et de la rédaction juridiques.
- Développer des capacités de réflexion critique pour évaluer et interpréter les résultats générés par ChatGPT.
Animé par la Prof. Florence Guillaume (Université de Neuchâtel), Dr. Jonathan Bory (Université de Neuchâtel) et deux intervenants à définir.
De 13h00 à 17h00 (sauf indication contraire), en présentiel à l’Université de Neuchâtel ou en ligne.
L’utilisation croissante de méthodes d’intelligence artificielle (IA) pour prendre des décisions menace les droits fondamentaux des individus. Les plateformes en ligne traitent de manière automatisée les données personnelles de leurs utilisateurs, à des fins de profilage. Les médias sociaux utilisent également des algorithmes pour repérer et supprimer des contenus illicites ou indésirables publiés en ligne. L’utilisation de l’IA n’épargne pas le secteur public. En effet, certains tribunaux étatiques utilisent déjà des outils prédictifs pour analyser le risque de récidive d’un individu.
L’utilisation de l’IA dans le processus décisionnel est justifiée par le gain d’efficience qui en résulte, en terme de temps de et de coûts. Cependant, les risques d’erreurs, de biais et de censure sont accrus lorsque l’IA est utilisée pour prendre une décision. Dans le cadre de cet atelier, nous analyserons le cadre juridique des décisions prises par une IA, en se concentrant sur les obligations prévues en droit européen, notamment par le RGPD, le DSA et le projet de Règlement sur l’IA.
Animé par Prof. Florence Guillaume (Université de Neuchâtel), Prof. Emmanuel Netter (Université d’Avignon) et Prof. Thibault Douville (Université de Caen Normandie).
De 10h00 à 12h00 (sauf indication contraire), en présentiel à l’Université de Neuchâtel ou en ligne.