beta - fireinvestment.io logo beta - fireinvestment.io logo Home Markets News Resources Burn it

Burn it

Login Register

Contribution Externe 2023-03-09 11:43:00

Le droit et la technologie peuvent travailler ensemble pour éviter les dérives de l'IA

Par Sophie Everarts de Velp, avocate en propriété intellectuelle et droit des technologies et Maximilien Roberti, ingénieur dans le domaine de l'intelligence artificielle chez Dun & Bradstreet L'utilisation croissante des technologies et de l'intelligence artificielle (IA) soulève des préoccupations quant aux risques potentiels notamment pour la vie privée, la sécurité et l'éthique. Des ingénieurs conçoivent et développent ces technologies tandis que des juristes sont chargés d'élaborer des lois et des réglementations pour encadrer leur utilisation. Toutefois, les différences de développement, de culture et de langage entre ces deux univers peuvent entraver leur collaboration. Alors que certains craignent que des règles plus strictes contraignent le développement concurrentiel de ces outils, d'autres estiment qu'elles sont nécessaires pour protéger les citoyens. Cette divergence de points de vue est symptomatique de la difficulté de communication entre les mondes juridique et technique, créant ainsi un décalage important. La technologie évolue de manière exponentielle ce qui en résulte que même les experts en intelligence artificielle ont du mal à suivre le rythme, et de ce fait, rend la réglementation encore plus complexe. Les juristes doivent être en mesure de comprendre les implications de ces avancées technologiques pour réglementer efficacement et protéger les intérêts des individus dans des domaines tels que la protection des données, la sécurité, la santé, l'emploi et l'environnement. Par exemple, pour déterminer la responsabilité en cas d'accident impliquant une voiture autonome, il est essentiel de comprendre son fonctionnement. Force est de constater l'importance de promouvoir l'innovation de ces technologies, qui peuvent avoir des impacts positifs sur la société et le développement économique mais qui comportent également de nombreux risques, notamment l'utilisation abusive des données personnelles (ex : comme la reconnaissance faciale en Chine, déjà en place depuis 2018), les préjugés et la discrimination (ex : selon une enquête de ProPublica, en 2016, l'algorithme COMPAS utilisé par les tribunaux américains pour évaluer les risques de récidive des personnes condamnées discriminant les personnes noires), la campagne de désinformation (ex : lors des élections de Trump et le Brexit) ou la perte de contrôle sur les systèmes d'IA (ex : en 2016, après une journée et plus de 96 000 tweets postés, Microsoft suspend temporairement le compte Twitter de son chat bot Tay en raison de ses commentaires devenus racistes et offensants). Il est donc nécessaire d'élaborer des lois pertinentes et efficaces. L'un des principaux défis auxquels est confronté le législateur lorsqu'il s'agit de réglementer l'utilisation de l'IA est la rapidité de l'évolution du domaine. Les avancées technologiques peuvent rendre obsolètes les réglementations existantes en peu de temps. De plus, la complexité de l'IA rend difficile la compréhension des enjeux et des risques pour les non-spécialistes, compliquant ainsi l'élaboration d'une réglementation efficace. Prenons l'exemple de la proposition de règlement européen sur l'intelligence artificielle visant à établir des règles pour l'utilisation de cette technologie. Ce règlement prévoit des restrictions sur l'utilisation de l'IA à haut risque et interdit certains systèmes. Il est actuellement au stade de proposition et pourrait être adopté en 2023. Bien entendu, d'autres réglementations s'appliquent déjà (en matière de protection des données, de cybersécurité, etc.), mais il s'agirait ici du premier règlement européen spécifique aux technologies d'intelligence artificielle. Bien que la consultation avec des parties prenantes et des experts en IA pour élaborer le règlement européen sur l'intelligence artificielle soit une étape louable, il est difficile de ne pas remarquer le décalage entre la rapidité de l'évolution de la technologie et la lenteur de la création d'un cadre légal. Trop souvent, la réglementation ne se met en place qu'après l'apparition de problèmes. Il est clair que les différences de culture et de langage peuvent constituer un frein à la communication entre les ingénieurs et les juristes. Ces derniers ont souvent des approches et des préoccupations différentes. Face aux défis de réglementer l'IA, il est de plus en plus évident que la coopération entre les ingénieurs et les juristes est nécessaire pour garantir un cadre légal strict, une compréhension et application effective de ces règles dans la pratique. Une telle collaboration pourrait aider à identifier rapidement les risques actuels et futurs liés à cette technologie, à mettre en place des mesures appropriées pour les atténuer et à établir des priorités pour les dangers et les menaces les plus urgents, et ce, tout en maintenant l'idée de permettre aux entreprises de rivaliser face à la concurrence internationale. Il est important de noter que de nombreuses initiatives ont vu le jour pour encourager l'échange et la collaboration entre les professionnels de différents horizons dans le domaine de l'IA. Des hubs, réseaux et incubateurs (comme notamment AI4Belgium) ont été créés pour soutenir la mise en place de nouvelles réglementations et faciliter la coopération dans des projets communs. De plus, certaines universités et entreprises offrent désormais des formations technico-juridiques, qui sont devenues essentielles et urgentes. Citons par exemple, le cours d'Advanced Ethical and Legal Aspects of AI proposé par la KULeuven dans son master en AI in Business&Industry ou encore les formations en droit des technologies de l'UNamur (DTIC) ou de la KULeuven (LL.M. en IP/IT). Ces formations sont importantes car elles permettent aux ingénieurs de fournir aux juristes une compréhension technique approfondie des technologies d'intelligence artificielle, de leurs capacités et des dangers potentiels. Les juristes, pour leur part, peuvent aider à identifier les risques et les défis juridiques et éthiques liés à l'IA, proposer des solutions réglementaires appropriées et aider les ingénieurs et les entreprises à mettre en œuvre ces règles dans la pratique. Ce dialogue peut également aider à promouvoir l'innovation et le développement d'outils d'intelligence artificielle de manière responsable. Relevons enfin que de nouveaux types de métiers émergent, comme ces récentes offres d'emploi de ChatGPT legal prompt engineer, qui combinent des compétences techniques et juridiques. La création de ces postes hybrides est essentielle et prometteuse pour combler le fossé entre ces deux domaines. Par exemple, nous pensons qu'il faudra bientôt nommer des spécialistes en intelligence artificielle mi-ingénieurs mi-juristes pour aider les juges à trancher des litiges sur ces questions, en particulier avec l'entrée en vigueur du règlement européen sur l'IA. Il est indéniable que les approches, les cultures et les langages des ingénieurs et des juristes diffèrent considérablement. Pour élaborer une réglementation efficace et mettre en œuvre des outils d'IA sûrs et éthiques, il est donc impératif de renforcer le dialogue entre ces deux professions. Bien que des initiatives aient déjà été mises en place pour faciliter cette communication, il est clair que davantage de travail est nécessaire pour renforcer cette collaboration. En travaillant ensemble, les ingénieurs et les juristes pourront créer des outils d'IA bénéfiques pour la société tout en limitant leurs impacts négatifs. C'est donc un effort commun qui doit être poursuivi pour faire progresser la réglementation, son application et l'utilisation de l'IA de manière responsable et durable.

Read the Disclaimer : All content provided herein our website, hyperlinked sites, associated applications, forums, blogs, social media accounts and other platforms (“Site”) is for your general information only, procured from third party sources. We make no warranties of any kind in relation to our content, including but not limited to accuracy and updatedness. No part of the content that we provide constitutes financial advice, legal advice or any other form of advice meant for your specific reliance for any purpose. Any use or reliance on our content is solely at your own risk and discretion. You should conduct your own research, review, analyse and verify our content before relying on them. Trading is a highly risky activity that can lead to major losses, please therefore consult your financial advisor before making any decision. No content on our Site is meant to be a solicitation or offer.