top of page

Déclaration des droits de l'IA : Protéger la dignité humaine et l'autodétermination à l'ère de l'intelligence artificielle

Un cadre pour les droits des personnes handicapées, la neuroéthique et le développement d'une IA centrée sur l'humain.

Développé par la Fondation Scott-Morgan Version 1.0 | Novembre 2024

Notre conviction fondamentale

La communication est le fondement de la dignité et de la sécurité humaines. Sans la capacité de communiquer, une personne ne peut défendre ses besoins, se protéger, accéder à l'éducation, nouer des relations ni participer pleinement à la vie sociale. Lorsqu'une maladie ou un handicap prive une personne de sa voix, la technologie doit la lui rendre – non par charité, mais comme un droit humain fondamental.

Chaque personne est pleinement maîtresse de son expérience, de ses capacités cognitives et de son interaction avec l'intelligence artificielle. Nous croyons en la conception de systèmes d'IA AVEC les personnes, notamment celles en situation de handicap, et non POUR elles. La technologie doit amplifier le pouvoir d'agir humain, jamais le restreindre. Nous rejetons toute approche qui positionne l'IA comme un substitut au jugement, à l'autonomie ou à la dignité humaine.

La communication n'est pas un luxe. Elle est essentielle à la survie, à l'apprentissage et à l'épanouissement. Nous nous engageons à démocratiser les technologies de communication car le silence n'est pas seulement un isolement ; c'est une forme d'effacement.

Préambule

La Fondation Scott-Morgan, en collaboration avec ses partenaires, notamment Young AI Leaders, et la communauté internationale des personnes en situation de handicap, établit cette Charte des droits relatifs à l'IA afin de protéger la dignité fondamentale, l'autonomie et l'autodétermination de toutes les personnes interagissant avec les systèmes d'intelligence artificielle. Nous reconnaissons que les personnes en situation de handicap sont souvent les premières à découvrir les nouvelles technologies d'IA et doivent donc être au cœur de l'élaboration de cadres éthiques qui protègent l'ensemble de la population.


Cette Déclaration des droits couvre l'ensemble des interactions avec l'IA, des systèmes d'écoute ambiante et environnements multi-agents aux avatars et technologies d'augmentation cognitive. Nous rejetons les approches extractives qui exploitent les expériences humaines sans consentement et nous nous engageons à adopter des pratiques de développement équitables qui respectent la diversité des modes de vie.

Déclaration des droits

1. Right to Informed Partnership and Education

Every individual has the right to understand and control their AI experience:

  • Comprehensive education about AI capabilities and limitations before implementation

  • Clear explanation of how multi-agent systems work and interact

  • Right to trial periods and gradual implementation

  • Understanding of data collection and processing in ambient systems

  • Education about voice synthesis and avatar creation processes

  • Right to technical support and ongoing training

  • Clear documentation of system functions and controls

  • Protection against overwhelming or confusing technology deployment
     

2. Right to Equitable Development and Co-Creation

AI development must center those most impacted:

  • Meaningful participation of disabled individuals in all stages of AI development

  • Recognition of lived experience as essential expertise

  • Right to leadership roles in technology design decisions

  • Protection against extractive research practices

  • Fair compensation for contributions to AI development

  • Right to refuse participation in AI research or testing

  • Access to AI development resources and training

  • Protection against tokenistic inclusion
     

3. Right to Multi-Agent System Control

In complex AI environments, human control remains paramount:

  • Transparency in multi-agent decision-making processes

  • Right to understand which agents are active and their functions

  • Ability to enable, disable, or modify individual agents

  • Control over agent-to-agent communication

  • Right to human oversight of agent decisions

  • Protection against agent systems making irreversible decisions

  • Right to audit agent behavior and decision logs

  • Control over ambient data collection and processing
     

4. Right to Authentic Self-Expression

AI must support, never supplant, human expression:

  • Control over how AI interprets and represents emotional states

  • Right to maintain authentic communication patterns

  • Protection against AI "correction" of natural human variation

  • Control over AI assistance in communication and expression

  • Right to refuse AI mediation of human interaction

  • Protection of diverse communication methods and preferences

  • Right to contextual expression across different environments
     

5. Right to Data Justice and Privacy

Complete control over personal data and AI interaction:

  • Ownership of all data generated through AI interaction

  • Right to understand data usage in AI training and operation

  • Control over data sharing with third parties

  • Right to data portability and deletion

  • Protection against discriminatory data practices

  • Transparent data governance policies

  • Right to algorithmic auditing and explanation

  • Protection against data colonization
     

6. Right to Intellectual Property and Innovation

Recognition of human creativity and contribution:

  • Full ownership of innovations created with AI assistance

  • Protection against unauthorized use of personal AI training data

  • Right to fair compensation for AI model improvements

  • Control over AI-generated content using personal data

  • Protection of traditional knowledge and cultural practices

  • Right to prospectively withdraw intellectual property from AI systems
     

7. Right to Accessibility and Universal Design

AI must be inherently accessible:

  • Right to AI systems designed for diverse abilities from inception

  • Protection against AI that creates new barriers

  • Right to multiple interaction modalities

  • AI assistance that adapts to individual needs

  • Protection against discrimination in AI system access

  • Right to AI that supports independent living

  • Access to AI customization tools and training
     

8. Right to Cultural and Contextual Respect

AI must honor diverse ways of being:

  • Protection against cultural homogenization by AI systems

  • Right to AI that respects cultural values and practices

  • Protection against AI imposing external norms or values

  • Right to culturally appropriate AI interaction

  • Protection of indigenous knowledge systems

  • Right to reject AI systems that conflict with personal values
     

9. Right to Transparent Governance

Clear accountability in AI development and deployment:

  • Right to understand AI decision-making processes

  • Access to AI system documentation and limitations

  • Right to appeal or contest AI decisions

  • Transparent reporting of AI system failures or harms

  • Right to participate in AI governance structures

  • Protection against opaque or unaccountable AI systems
     

10. Legacy and Perpetual Rights

Protection extends beyond lifetime:

  • Control over posthumous use of personal AI data

  • Right to digital legacy planning

  • Protection of AI-generated content after death

  • Family/designee control over ongoing AI systems

  • Right to digital memorial or deletion choices

11. Right to Explicit, Informed Consent for Visual Likeness

No AI system may create, deploy, or distribute an avatar representing an identifiable person’s likeness without that person’s clear, informed consent (or lawful guardian/designee when applicable).

 

12. Right to Contest and Remedy

Individuals must have a fast, accessible path to contest unauthorized or harmful use of their likeness and obtain timely takedown/remediation.

13. Posthumous Visual Likeness Management

Individuals have the right to specify end-of-life instructions for their likeness asset: memorial use vs. deletion, whether new messages may be created posthumously, who can authorize use, and transferability.

Designated custodian / delegate: Individuals can name a custodian empowered to manage the likeness asset consistent with the person’s documented preferences.

14. Provenance and Disclosure

AI-generated likeness content should include clear disclosure it is synthetic and, where feasible, provenance signals (e.g., watermarking/metadata) to enable verification and accountability.

Cadre de mise en œuvre

Partner Obligations
All organizations working with AI systems must:

  • Undergo regular human rights impact assessments

  • Implement participatory design processes with diverse voices including young leaders

  • Provide transparent algorithmic auditing

  • Maintain end-to-end encryption and security

  • Offer comprehensive user education and support

  • Establish clear accountability mechanisms

  • Engage in ongoing dialogue with disability communities across all age groups
     

Enforcement and Accountability

  • Independent oversight bodies with disability community representation

  • Regular compliance auditing by third parties

  • Public reporting of rights violations and remediation

  • Community feedback mechanisms and response protocols

  • Legal protection for rights violations
     

Evolution and Adaptation
This living document will evolve through:

  • Annual review with community stakeholders including Young AI Leaders

  • Responsive updates to emerging technologies

  • Integration of ongoing research and lived experience

  • Cross-cultural consultation and adaptation

  • Incorporation of legal and regulatory developments

Notre engagement

Nous nous engageons à concevoir des systèmes d'IA qui reconnaissent pleinement l'humanité, la capacité d'agir et la dignité de chaque personne. Nous rejetons le faux dilemme entre progrès technologique et droits humains. Nous choisissons plutôt de développer des technologies qui déploient le potentiel humain tout en respectant l'autonomie de chacun.

L’avenir de l’IA doit être écrit par celles et ceux qui en seront le plus affectés. Nous nous engageons à faire en sorte que les personnes en situation de handicap continuent de jouer un rôle moteur dans la construction de cet avenir.

Core
Preamble
Declaration
Implementation
Commitment

Clinical Implementation Standards

Complément aux Droits 4 et 5, adapté des directives du programme de communication alternative et améliorée Fishman pour la SLA

Propriété et contrôle des données vocales

Toutes les données de clonage vocal restent la propriété de l'utilisateur. La technologie hébergeant un clone vocal doit être détenue et contrôlée par l'utilisateur ou son représentant désigné. En cas de prêt ou de transfert de technologie, un plan écrit de suppression complète du clone vocal à la fin de son utilisation doit être établi et conservé par l'utilisateur ou son représentant.

Normes de consentement éclairé

Le consentement au clonage vocal doit comporter une discussion claire sur la propriété des données, les droits d'utilisation et les souhaits posthumes. Ces souhaits doivent être réexaminés annuellement ou suite à des changements importants de l'état de santé, et conservés dans le système de documentation utilisé par l'utilisateur ou son entourage.
Gestion de la voix posthume

Les utilisateurs ont le droit de désigner un responsable principal pour leur enregistrement vocal et de préciser à l'avance qui peut y accéder, à quelles conditions et à quelles fins. Les décisions doivent porter sur l'utilisation à des fins commémoratives, la création de nouveaux messages, la transférabilité et la suppression définitive. La Fondation recommande que ces préférences soient consignées par écrit et communiquées aux responsables désignés.

Clinical Implementation Standards
Acknowledgements

Remerciements

Cette Charte des droits a été élaborée en partenariat avec des personnes atteintes de SLA/MND qui testent des technologies d'assistance de pointe et des défenseurs des droits des personnes handicapées du monde entier. Une mention spéciale est accordée aux innovateurs comme Bernard, dont l'expérience vécue et l'expertise technique démontrent que les meilleures solutions émanent de ceux qui en ont le plus besoin.

La Fondation tient à exprimer sa profonde gratitude à John Costello et au programme de communication améliorée Jay S. Fishman pour la SLA, menés au Boston Children's Hospital, pour leurs travaux cliniques fondamentaux. Ses principes directeurs relatifs au clonage vocal et à son intégration dans les technologies de communication améliorée ont fourni le fondement clinique de notre cadre, notamment en ce qui concerne le consentement éclairé, la gestion posthume de la voix et les normes de protection des données qui garantissent l'application de ces droits. Cette Charte des droits s'appuie directement sur ces travaux.

bottom of page