RESEARCH

GPTs au travail | End date : 2025

Les transformateurs génératifs pré-entraînés (GPT) sont très efficaces pour générer du contenu et augmenter la productivité. Toutefois, les entreprises émettent […]

Les transformateurs génératifs pré-entraînés (GPT) sont très efficaces pour générer du contenu et augmenter la productivité. Toutefois, les entreprises émettent des réserves quant à leur utilisation dans un cadre professionnel en raison de préoccupations liées à la désinformation, à la confidentialité et à la responsabilité découlant de l’utilisation des GPTs.

Les GPTs sont devenues les technologies les plus rapidement adoptées dans l’histoire de l’industrie, mais sur le lieu de travail, les travailleurs cachent parfois leur utilisation des GPTs. Ce manque de transparence est un obstacle majeur à la réglementation de l’utilisation des GPTs au travail et empêche les entreprises et les régulateurs d’identifier et d’atténuer les risques.

Ce projet étudie les effets de l’utilisation des GPTs au travail sur la perception qu’ont les travailleurs des risques et des avantages associés aux GPTs et sur la volonté des travailleurs de divulguer leur utilisation des GPTs. Les résultats pourraient aider les entreprises et les organismes de réglementation à réglementer les GPTs sur le lieu de travail en favorisant la transparence.

Partenaires

HEC Paris Fondation

Content Moderation Project | End date : 2025

Ce projet vise à accroître la transparence sur la manière dont les grandes plateformes numériques fonctionnent et gouvernent leur plateforme, […]

Ce projet vise à accroître la transparence sur la manière dont les grandes plateformes numériques fonctionnent et gouvernent leur plateforme, et sur la manière dont elles influencent leurs utilisateurs. Une nouvelle loi européenne sur les plateformes impose de nouvelles obligations aux grandes plateformes numériques telles que Google, Amazon, Facebook et X. La loi sur les services numériques (DSA), qui fait partie de cette loi européenne sur les plateformes, exige que les plateformes fassent preuve de transparence dans leurs politiques et systèmes de modération de contenu et qu’elles prennent des mesures pour limiter la propagation de la désinformation.

Le Content Moderation Project (projet CoMo) vise à accéder aux données de modération de contenu des grandes plateformes numériques afin d’analyser leurs politiques et systèmes de modération de contenu dans le contexte de la DSA. Le projet a commencé par un audit du système de modération de contenu crowdsourcé de X (Community Notes) et a révélé les forces et les faiblesses de l’outil de modération de contenu de X. L’objectif du projet est de développer des méthodologies d’audit des politiques et systèmes de modération de contenu des plateformes numériques, couvrant l’ensemble du processus, de l’accès aux données à la présentation des résultats de l’audit.

Partenaires

HEC Paris Fondation

Autonomisation des acteurs Judiciaires par la Cyberjustice et l’intelligence artificielle (AJC) | End date : 2024

Le partenariat ACT vise à mettre l’intelligence artificielle (IA) au service des acteurs de la justice afin d’améliorer la prévention […]

Le partenariat ACT vise à mettre l’intelligence artificielle (IA) au service des acteurs de la justice afin d’améliorer la prévention et la résolution des conflits. Ce projet rassemble une équipe multidisciplinaire et internationale de 52 chercheurs et 45 partenaires représentant un certain nombre de parties prenantes, notamment les principaux centres de recherche mondiaux dédiés à la mise en œuvre et à l’utilisation des technologies dans le domaine de la justice (cyberjustice), les justiciables et les professionnels du droit (acteurs de la justice), ainsi que les principaux utilisateurs et développeurs de l’IA au service de la justice au Canada.

David Restrepo Amariles est le chercheur principal du sous-projet 4 portant sur les contrats intelligents et les technologies de régulation. Le développement de technologies pour les contrats impliquant la substitution du tiers par la technologie informatique fait des progrès significatifs, nécessitant des changements dans la législation des États. L’avenir des obligations contractuelles implique une analyse de la part de la communauté juridique afin de faciliter leur mise en œuvre juridique.

 

 

Participation citoyenne et Centralité de l’usager dans la transformation numérique du droit et des services publics | End date : 2024

Le projet « Participation citoyenne et Centralité de l’usager dans la transformation numérique du droit et des services publics » vise à […]

Le projet « Participation citoyenne et Centralité de l’usager dans la transformation numérique du droit et des services publics » vise à étudier les méthodologies permettant d’assurer l’engagement des citoyens et des parties prenantes à la fois dans la modernisation de la législation existante et dans le développement de nouvelles politiques et législations prêtes pour le numérique. Pour atteindre cet objectif, le projet se concentrera sur deux domaines politiques au sein de la Région de Bruxelles-Capitale : les règlements d’urbanisme, y compris le COBAT, et les politiques de logement, avec un accent particulier sur les règles relatives au logement étudiant.

Pour chacun de ces domaines politiques, le projet concevra et préparera la documentation et les outils numériques pour deux ateliers visant à tester l’implication des citoyens et les approches centrées sur l’utilisateur dans la transformation numérique des politiques actuelles et futures. Ces ateliers seront préparés par une équipe interdisciplinaire composée d’étudiants avancés en droit et en informatique. Le point culminant de la recherche consistera à présenter les idées clés tirées de ces ateliers à un panel de décideurs politiques à Bruxelles, y compris un représentant de l’administration danoise. En outre, le projet aboutira à la publication de ses résultats et des enseignements tirés, contribuant ainsi à l’amélioration du projet SimpLex.

Partenaires

Agency for Digital Government

Privatech | End date : 2023

Privatech est un projet de recherche juridique universitaire qui vise à rationaliser le respect de la vie privée et la […]

Privatech est un projet de recherche juridique universitaire qui vise à rationaliser le respect de la vie privée et la protection des consommateurs en se concentrant sur les entreprises (responsables du traitement des données et sous-traitants) plutôt que sur les consommateurs (personnes concernées). Le projet vise à s’assurer que les entreprises sont en mesure de traduire les politiques de protection de la vie privée divulguées aux consommateurs en mécanismes de conformité efficaces. L’objectif de Privatech est de détecter les infractions au règlement général sur la protection des données (RGPD) dans les documents relatifs à la protection de la vie privée.

L’application pourrait servir aux consommateurs, aux avocats, aux responsables de la protection des données, aux services juridiques et aux responsables de l’audit des documents relatifs à la protection de la vie privée d’une entreprise. Privatech encouragera finalement les entreprises à concevoir et à contrôler leurs activités de traitement des données de manière à ce qu’elles soient légales, complètes et faciles à comprendre. Plus important encore, il vise à favoriser le respect de la vie privée en aval des flux de données ou, en d’autres termes, à faire en sorte que les entreprises soient informées des pratiques en matière de données afin qu’elles puissent prendre des décisions qui préservent la vie privée. Privatech permet aux responsables qui ne sont pas spécialisés dans la protection de la vie privée de procéder à une évaluation préliminaire de la conformité et de détecter les problèmes potentiels nécessitant des conseils spécialisés.

Partenaires

Atos

 

Méthodes d’IA interjuridictionnelles pour les décisions des tribunaux de droit civil | End date : 2024

L’utilisation de l’intelligence artificielle dans le domaine juridique se développe rapidement, à tel point que la proposition actuelle de loi […]

L’utilisation de l’intelligence artificielle dans le domaine juridique se développe rapidement, à tel point que la proposition actuelle de loi sur l’IA de l’Union européenne considère explicitement son utilisation dans le secteur judiciaire comme présentant un risque élevé. Dans le même temps, le développement de l’IA pour le jugement reste peu développé malgré les efforts significatifs de la communauté universitaire pour faire avancer la recherche dans ce domaine.

Le développement de méthodes et d’outils d’IA reste coûteux, exigeant en termes de données et politiquement sensible.
Ce projet adopte le point de vue des juridictions de droit civil. Alors que les juridictions de droit civil représentent 60 % des systèmes juridiques du monde, il reste difficile de tirer parti de cette masse de données, principalement en raison des barrières linguistiques, ce qui réduit les avantages potentiels de l’appartenance à la même famille juridique pour le développement d’outils d’IA. Dans ce projet, nous examinons la possibilité de développer des méthodes d’IA pour exploiter les décisions de justice qui peuvent être transférées à travers les juridictions civiles. Nous explorons quatre tâches principales : l’anonymisation, l’exploration d’arguments, les modèles prédictifs et l’explicabilité juridique (c’est-à-dire la justification d’une décision par un raisonnement juridique). Nous menons une étude exploratoire sur la jurisprudence des tribunaux belges – car elle implique des décisions multilingues – afin d’examiner la possibilité de transférer des modèles multilingues développés dans une juridiction à d’autres juridictions ayant la même langue et la même tradition de droit civil (par exemple, l’Allemagne, la France et les Pays-Bas) ».

Partnenaires

Université d’Amsterdam 

VINNOVA | End date : 2023

Ce projet étudie l’utilisation d’outils d’intelligence artificielle et de contrats intelligents pour gérer la protection des données dans les chaînes […]

Ce projet étudie l’utilisation d’outils d’intelligence artificielle et de contrats intelligents pour gérer la protection des données dans les chaînes d’approvisionnement. Les réglementations en matière de protection de la vie privée créent souvent des normes élevées pour la protection des données des entreprises et des citoyens. Souvent, ce cadre réglementaire est difficile à appliquer compte tenu des difficultés liées au contrôle des données ; en particulier lorsque les activités de traitement des données impliquent un nombre important de sous-traitants, générant une longue chaîne d’approvisionnement. Des réglementations récentes, telles que le règlement général sur la protection des données et la loi californienne sur la protection de la vie privée des consommateurs, cherchent à donner plus de pouvoir aux consommateurs en leur accordant des droits supplémentaires en matière de protection de la vie privée et en limitant le nombre d’activités de traitement. Par conséquent, la recherche actuelle sur la protection des données et la vie privée se concentre principalement sur les relations B2C. Ce projet étudie plutôt les activités de traitement des données en amont et en aval de la chaîne d’approvisionnement. Il soutient que le droit à la vie privée des individus peut manquer d’efficacité s’il n’est pas possible de tenir les sous-traitants responsables des flux de données dans la chaîne d’approvisionnement. Le projet s’articulera autour de trois axes. Premièrement, cartographier et évaluer les instruments contractuels et non contractuels utilisés par les entreprises pour répercuter les instructions relatives à la protection de la vie privée et au traitement des données tout au long de la chaîne d’approvisionnement. Deuxièmement, identifier les failles et les conflits d’instruments des acteurs de la chaîne d’approvisionnement qui entravent la protection des données. Troisièmement, concevoir un outil de conformité basé sur l’IA et les contrats intelligents qui pourrait aider les régulateurs et les responsables du traitement des données à contrôler les contrats de la chaîne d’approvisionnement.

 

Partenaires

HEC Paris

SimpLex | End date : 2023

La Région de Bruxelles-Capitale est la seule entité en Belgique à ne pas maîtriser sa propre production législative, contrairement à […]

La Région de Bruxelles-Capitale est la seule entité en Belgique à ne pas maîtriser sa propre production législative, contrairement à la Wallonie qui dispose de Wallex, à la Flandre qui dispose du Codex flamand et à la Fédération Wallonie-Bruxelles qui dispose de Gallilex. Le projet SimpLex, mené en collaboration avec le Artificial Intelligence around the Common Good Institute (FARI – AI for the Common Good Institute), easy.brussels, le CIRB_CIBG, et le Smart Law Hub du Centre Perelman, vise à développer un droit plus simple, plus inclusif et plus efficace. Le premier objectif est de jeter les bases d’une base de données législative régionale qui réponde aux attentes légitimes des citoyens et des autorités publiques. SimpLex vise à fournir aux administrations publiques des outils numériques de simplification administrative et à construire une base de données de la législation régionale facile à utiliser.

Partenaires

FARI, Easy.brusselsCIRB_CIBG 

Standardisation des Droits Fondamentaux | End date : 2024

De nombreux systèmes d’IA sont « sociotechniques » ; ils impliquent une interaction entre les facteurs techniques et humains, ce qui pose […]

De nombreux systèmes d’IA sont « sociotechniques » ; ils impliquent une interaction entre les facteurs techniques et humains, ce qui pose à son tour des défis distincts pour la sécurité et l’équité de ces systèmes. Si les recherches existantes et les propositions de réglementation législative suggèrent souvent de renforcer la composante « socio », en particulier au stade de la conception, la manière dont cela pourrait concrètement produire des avantages en termes de systèmes d’IA « dignes de confiance » n’est pas claire : en fin de compte, ces systèmes restent des mécanismes d’optimisation orientés vers le marché, avec des incitations associées différentes de celles valorisées dans une « société centrée sur l’humain ».

Dans ce contexte, cette proposition de recherche suggère que les progrès vers une « IA digne de confiance » nécessiteront le développement et l’application de normes techniques qui aideront à garantir la conformité des systèmes d’IA avec les droits de l’homme. Ces normes constitueront l’épine dorsale d’une approche mettant l’accent sur la « conformité dès la conception », c’est-à-dire la garantie que les êtres humains – et leurs droits – sont respectés à chaque étape du cycle de vie d’un système d’IA, ainsi que dans les intrants, les extrants et le fonctionnement des systèmes d’IA. Associer un concept juridique, les droits de l’homme, à un cadre technique tel que les normes est un défi. La législation sur les droits de l’homme, qui implique souvent un équilibre nuancé entre des intérêts concurrents, n’est en effet pas facilement transposable dans un contexte technique. L’intégration de ces droits dans le développement des systèmes d’IA nécessitera donc un acte de traduction complexe susceptible d’altérer leur matérialité ou leur contenu, offrant ainsi la possibilité de réorienter les droits de l’homme vers l’ère de l’IA. À cette fin, la recherche utilisera une approche multidisciplinaire, intégrant l’analyse juridique normative à la collecte de données empiriques et à la modélisation informatique.

JuriBERT: Adaptation d’un modèle de langue masquée pour les textes juridiques en français | End date : 2023

Étant donné que certaines tâches spécifiques ne bénéficient pas de modèles linguistiques génériques pré-entraînés sur de grandes quantités de données, […]

Brain Data Hub | End date : 2024

Une plateforme de données sécurisée pour partager vos données pour la recherche et la politique en conformité avec le droit […]

Une plateforme de données sécurisée pour partager vos données pour la recherche et la politique en conformité avec le droit européen.

Le règlement européen sur la gouvernance des données (Data Governance Act – DGA) est entré en vigueur le 24 septembre 2023. Ce règlement encourage le partage volontaire de données à des fins altruistes, telles que la recherche scientifique ou l’amélioration des services publics, par le biais d’organisations altruistes de données.

Dans ce contexte, le Belgian Brain Council (BBC), qui regroupe 26 associations de patients et 28 sociétés scientifiques, lance la création de la première organisation altruiste pour les données sur le cerveau et la santé mentale. Cette organisation sera chargée de gérer le Brain Data Hub, une plateforme informatique sécurisée de collecte et de partage de données. Le BBC se veut un intermédiaire éthique et de confiance pour les patients qui souhaitent mettre leurs données à disposition de la recherche scientifique et de la création d’un plan cérébral belge.

Partenaires:

Belgian Brain Council

LASO | End date : 2024

Le projet LASO vise à identifier et à développer une méthodologie pour stimuler et soutenir l’innovation avec l’IA pour le […]

Le projet LASO vise à identifier et à développer une méthodologie pour stimuler et soutenir l’innovation avec l’IA pour le bien commun dans les hôpitaux qui ont été reconnus comme des éléments clés dans les systèmes d’innovation en matière de santé. Les solutions basées sur l’IA ont un grand potentiel pour améliorer le bien commun dans les soins de santé. Les solutions d’IA actuelles peuvent déjà travailler avec des données sémantiquement complexes, analyser de grands volumes d’informations en un temps limité, avec des résultats cohérents et précis qui s’améliorent au fil du temps. Cependant, comme pour toute technologie, ces innovations comportent des risques, notamment des risques qui vont à l’encontre des exigences éthiques biomédicales : autonomie, bénéfice, non-crime et justice.

L’objectif principal du projet LASO est donc de réduire les risques liés à l’innovation lors de la mise en œuvre d’une nouvelle solution d’IA dans les hôpitaux et autres organisations de soins complexes, en proposant un processus systématique d’élaboration avant l’acquisition, le développement et la mise en œuvre d’une solution d’IA. Cette méthodologie permettra aux entreprises qui développent l’IA ainsi qu’aux organismes de soins de santé qui recherchent des solutions basées sur l’IA pour le bien commun de sélectionner des cas d’utilisation axés sur la demande et d’anticiper les différents défis liés à la mise en œuvre.

Partenaires

ULB, iCITE, VUB, SMIT , Sagacify , UZBrussel

EXPERTISE

The members of the SmartLaw Hub are involved in training, providing seminars and advising the following partners:

- Banking
- Lawyers
- Notaries
- Doctors
- Edenred
- Deloitte
- Baines
- ATOS
- Alpha Laval
- KPMG - GAINDE
- FARI - Getting Ready

The SmartLaw Hub aims to foster interdisciplinary research and collaboration between legal scholars, computer scientists, and practitioners on the topics of law and digital technologies. The SmartLaw Hub also organizes events and workshops to disseminate its findings and promote public awareness and engagement.

Restons en contact !