Karta praw sztucznej inteligencji: ochrona godności człowieka i samostanowienia w erze sztucznej inteligencji
Ramy praw osób niepełnosprawnych, neuroetyki i rozwoju sztucznej inteligencji zorientowanego na człowieka.
Opracowane przez FundacjÄ™ Scott-Morgan Wersja 1.0 | Listopad 2024
Sekcje:
Nasze podstawowe zasady | Preambuła | Deklaracja praw | Ramy wdrażania | Standardy wdrażania klinicznego | Nasze zobowiązanie | Podziękowania
Nasza podstawowa wiara
Komunikacja jest fundamentem ludzkiej godności i bezpieczeństwa. Bez umiejętności komunikowania się człowiek nie może reprezentować swoich potrzeb, chronić się przed krzywdą, mieć dostępu do edukacji, budować relacji ani w pełni uczestniczyć w życiu społecznym. Kiedy choroba lub niepełnosprawność odbiera komuś głos, technologia musi go przywrócić – nie jako dobroczynność, ale jako fundamentalne prawo człowieka.
Każdy człowiek jest ostatecznym autorytetem w zakresie własnych doświadczeń, poznania i interakcji ze sztuczną inteligencją. Wierzymy w tworzenie systemów AI Z ludźmi, zwłaszcza z niepełnosprawnościami, a nie DLA nich. Technologia musi wzmacniać ludzką sprawczość, a nigdy jej nie umniejszać. Odrzucamy wszelkie podejście, które pozycjonuje AI jako substytut ludzkiego osądu, autonomii lub godności.
Komunikacja nie jest luksusem. Jest niezbędna do przetrwania, nauki i rozwoju. Zobowiązujemy się do demokratyzacji technologii komunikacyjnych, ponieważ cisza to nie tylko izolacja, to wymazanie.
Preambuła
My, Fundacja Scott-Morgan, wraz z naszymi partnerami, w tym Young AI Leaders, oraz globalną społecznością osób z niepełnosprawnościami, ustanawiamy niniejszą Deklarację Praw Sztucznej Inteligencji (AI), aby chronić fundamentalną godność, autonomię i samostanowienie wszystkich osób korzystających z systemów sztucznej inteligencji. Zdajemy sobie sprawę, że osoby z niepełnosprawnościami często jako pierwsze stykają się z nowymi technologiami AI i dlatego musimy skupić się na opracowaniu ram etycznych, które będą chronić wszystkich.
Niniejsza Karta Praw obejmuje pełne spektrum interakcji AI, od systemów nasłuchu otoczenia i środowisk wieloagentowych po awatary i technologie wspomagania poznawczego. Odrzucamy podejścia ekstrakcyjne, które eksplorują ludzkie doświadczenia bez ich zgody, i zobowiązujemy się do sprawiedliwych praktyk rozwojowych, które szanują różnorodność sposobów bycia.
Deklaracja praw
1. Right to Informed Partnership and Education
Every individual has the right to understand and control their AI experience:
-
Comprehensive education about AI capabilities and limitations before implementation
-
Clear explanation of how multi-agent systems work and interact
-
Right to trial periods and gradual implementation
-
Understanding of data collection and processing in ambient systems
-
Education about voice synthesis and avatar creation processes
-
Right to technical support and ongoing training
-
Clear documentation of system functions and controls
-
Protection against overwhelming or confusing technology deployment
2. Right to Equitable Development and Co-Creation
AI development must center those most impacted:
-
Meaningful participation of disabled individuals in all stages of AI development
-
Recognition of lived experience as essential expertise
-
Right to leadership roles in technology design decisions
-
Protection against extractive research practices
-
Fair compensation for contributions to AI development
-
Right to refuse participation in AI research or testing
-
Access to AI development resources and training
-
Protection against tokenistic inclusion
3. Right to Multi-Agent System Control
In complex AI environments, human control remains paramount:
-
Transparency in multi-agent decision-making processes
-
Right to understand which agents are active and their functions
-
Ability to enable, disable, or modify individual agents
-
Control over agent-to-agent communication
-
Right to human oversight of agent decisions
-
Protection against agent systems making irreversible decisions
-
Right to audit agent behavior and decision logs
-
Control over ambient data collection and processing
4. Right to Authentic Self-Expression
AI must support, never supplant, human expression:
-
Control over how AI interprets and represents emotional states
-
Right to maintain authentic communication patterns
-
Protection against AI "correction" of natural human variation
-
Control over AI assistance in communication and expression
-
Right to refuse AI mediation of human interaction
-
Protection of diverse communication methods and preferences
-
Right to contextual expression across different environments
5. Right to Data Justice and Privacy
Complete control over personal data and AI interaction:
-
Ownership of all data generated through AI interaction
-
Right to understand data usage in AI training and operation
-
Control over data sharing with third parties
-
Right to data portability and deletion
-
Protection against discriminatory data practices
-
Transparent data governance policies
-
Right to algorithmic auditing and explanation
-
Protection against data colonization
6. Right to Intellectual Property and Innovation
Recognition of human creativity and contribution:
-
Full ownership of innovations created with AI assistance
-
Protection against unauthorized use of personal AI training data
-
Right to fair compensation for AI model improvements
-
Control over AI-generated content using personal data
-
Protection of traditional knowledge and cultural practices
-
Right to prospectively withdraw intellectual property from AI systems
7. Right to Accessibility and Universal Design
AI must be inherently accessible:
-
Right to AI systems designed for diverse abilities from inception
-
Protection against AI that creates new barriers
-
Right to multiple interaction modalities
-
AI assistance that adapts to individual needs
-
Protection against discrimination in AI system access
-
Right to AI that supports independent living
-
Access to AI customization tools and training
8. Right to Cultural and Contextual Respect
AI must honor diverse ways of being:
-
Protection against cultural homogenization by AI systems
-
Right to AI that respects cultural values and practices
-
Protection against AI imposing external norms or values
-
Right to culturally appropriate AI interaction
-
Protection of indigenous knowledge systems
-
Right to reject AI systems that conflict with personal values
9. Right to Transparent Governance
Clear accountability in AI development and deployment:
-
Right to understand AI decision-making processes
-
Access to AI system documentation and limitations
-
Right to appeal or contest AI decisions
-
Transparent reporting of AI system failures or harms
-
Right to participate in AI governance structures
-
Protection against opaque or unaccountable AI systems
10. Legacy and Perpetual Rights
Protection extends beyond lifetime:
-
Control over posthumous use of personal AI data
-
Right to digital legacy planning
-
Protection of AI-generated content after death
-
Family/designee control over ongoing AI systems
-
Right to digital memorial or deletion choices
​
11. Right to Explicit, Informed Consent for Visual Likeness
No AI system may create, deploy, or distribute an avatar representing an identifiable person’s likeness without that person’s clear, informed consent (or lawful guardian/designee when applicable).
12. Right to Contest and Remedy
Individuals must have a fast, accessible path to contest unauthorized or harmful use of their likeness and obtain timely takedown/remediation.
​
13. Posthumous Visual Likeness Management
Individuals have the right to specify end-of-life instructions for their likeness asset: memorial use vs. deletion, whether new messages may be created posthumously, who can authorize use, and transferability.
Designated custodian / delegate: Individuals can name a custodian empowered to manage the likeness asset consistent with the person’s documented preferences.
​
14. Provenance and Disclosure
AI-generated likeness content should include clear disclosure it is synthetic and, where feasible, provenance signals (e.g., watermarking/metadata) to enable verification and accountability.
Ramy wdrażania
Partner Obligations
All organizations working with AI systems must:
-
Undergo regular human rights impact assessments
-
Implement participatory design processes with diverse voices including young leaders
-
Provide transparent algorithmic auditing
-
Maintain end-to-end encryption and security
-
Offer comprehensive user education and support
-
Establish clear accountability mechanisms
-
Engage in ongoing dialogue with disability communities across all age groups
Enforcement and Accountability
-
Independent oversight bodies with disability community representation
-
Regular compliance auditing by third parties
-
Public reporting of rights violations and remediation
-
Community feedback mechanisms and response protocols
-
Legal protection for rights violations
Evolution and Adaptation
This living document will evolve through:
-
Annual review with community stakeholders including Young AI Leaders
-
Responsive updates to emerging technologies
-
Integration of ongoing research and lived experience
-
Cross-cultural consultation and adaptation
-
Incorporation of legal and regulatory developments
Nasze zobowiÄ…zanie
Zobowiązujemy się do tworzenia systemów sztucznej inteligencji, które uznają pełnię człowieczeństwa, sprawczości i godności każdej osoby. Odrzucamy fałszywy wybór między postępem technologicznym a prawami człowieka. Zamiast tego wybieramy tworzenie technologii, która wzmacnia ludzki potencjał, jednocześnie szanując ludzką autonomię.
Przyszłość sztucznej inteligencji muszą tworzyć ci, na których będzie miała ona największy wpływ. Zobowiązujemy się do tego, aby osoby z niepełnosprawnościami nadal odgrywały wiodącą rolę w kształtowaniu tej przyszłości.
Standardy wdrażania klinicznego
Materiał towarzyszący Prawom 4 i 5, opracowany na podstawie wytycznych Programu komunikacji wspomagającej Fishman ALS
Własność i kontrola danych głosowych
Wszystkie dane klonu głosu pozostają własnością użytkownika. Technologia zawierająca klon głosu musi być własnością użytkownika lub wyznaczonego przez niego przedstawiciela i podlegać jego kontroli. W przypadku wypożyczenia lub przeniesienia technologii, użytkownik lub jego przedstawiciel musi sporządzić i przechowywać pisemny plan całkowitego usunięcia klonu głosu po zaprzestaniu jego użytkowania.
Standardy świadomej zgody
Zgoda na klonowanie głosu musi zawierać jasne omówienie własności danych, praw użytkowania oraz preferencji pośmiertnych. Preferencje te powinny być weryfikowane corocznie lub po każdej istotnej zmianie stanu zdrowia i przechowywane w dowolnym systemie dokumentacji prowadzonym przez użytkownika lub jego sieć wsparcia.
Zarządzanie głosem pośmiertnym
Użytkownicy mają prawo wyznaczyć głównego opiekuna swojego klonu głosowego i z góry określić, kto może uzyskać do niego dostęp, na jakich warunkach i w jakim celu. Decyzje powinny uwzględniać wykorzystanie w celach pamięci, tworzenie nowych wiadomości, możliwość przenoszenia i trwałe usuwanie. Fundacja zaleca, aby preferencje te były formalnie dokumentowane i udostępniane wyznaczonym opiekunom.
Podziękowanie
Niniejsza Karta Praw została opracowana we współpracy z osobami z ALS/MND, które testują najnowocześniejsze technologie wspomagające, oraz z obrońcami praw osób z niepełnosprawnościami na całym świecie. Szczególne uznanie należy się innowatorom takim jak Bernard, których doświadczenie i wiedza techniczna dowodzą, że najlepsze rozwiązania pochodzą od tych, którzy ich najbardziej potrzebują.
Fundacja z wdzięcznością wyraża uznanie za fundamentalną pracę kliniczną Johna Costello i Programu Komunikacji Wspomagającej SLA im. Jaya S. Fishmana w Szpitalu Dziecięcym w Bostonie. Jego Zasady Przewodnie dotyczące klonowania głosu i integracji z technologiami komunikacji wspomagającej stanowiły podstawę kliniczną dla naszych ram, w szczególności w zakresie świadomej zgody, pośmiertnego zarządzania głosem oraz standardów ochrony danych, które realizują te prawa. Niniejsza Karta Praw bezpośrednio opiera się na tej pracy.
.png)