Báo cáo về Phân loại rủi ro nhân quyền liên quan đến AI tạo sinh
Phân loại rủi ro nhân quyền liên quan đến AI tạo sinh
Văn phòng Cao
ủy Nhân quyền Liên hợp quốc
Giới
thiệu về tài liệu này
Là phần bổ
sung cho tài liệu nền tảng của Dự án B-Tech của Liên hợp quốc về AI tạo ra, tài
liệu này tìm hiểu các rủi ro về nhân quyền bắt nguồn từ việc phát triển, triển
khai và sử dụng công nghệ AI tạo ra. Việc thiết lập một hệ thống phân loại dựa
trên quyền như vậy là rất quan trọng để hiểu cách áp dụng các Nguyên tắc Hướng
dẫn của Liên hợp quốc về Kinh doanh và Nhân quyền (UNGP) trong việc giải quyết
các rủi ro về nhân quyền liên quan đến AI tạo sinh (generative AI). Phân loại này nhằm chỉ ra rằng những mối nguy hiểm đáng kể nhất
đối với con người liên quan đến AI tạo sinh trên thực tế cũng ảnh hưởng đến các quyền con người đã được quốc
tế thống nhất.
VÌ SAO LẠI LÀ NHÂN QUYỀN?
Hầu hết các thảo luận xung quanh AI tạo sinh đã thừa nhận rộng rãi rằng một số cách mà công nghệ này có thể tác động
tiêu cực đến con người và xã hội, mặc dù không phải tất cả. Tuy nhiên, cuộc thảo
luận này thường không tập trung vào việc những tác động này có thể làm suy yếu
các quyền con người được đảm bảo
bởi luật nhân quyền quốc tế như thế nào. Có thể nhận thấy một số lợi ích hợp lý và thực tiễn khi xác định chính xác mức độ AI có thể tạo ra tác động tiêu cực
đến nhân quyền, cụ thể là:
– Nhân quyền
quốc tế hiện là bộ tiêu chuẩn đạo đức và pháp lý duy nhất được quốc tế đồng ý
được thể hiện chung như là trung tâm để sống một cuộc sống có phẩm giá và sự
tôn trọng.
– Việc tập
trung vào nhân quyền củng cố rằng các nghĩa vụ hiện tại của Nhà nước trong việc
bảo vệ nhân quyền và trách nhiệm tôn trọng nhân quyền của doanh nghiệp có thể
và nên được viện dẫn để quản lý AI tạo ra.
– Nhân quyền
tập trung vào các kết quả tích cực và tiêu cực đạt đến ngưỡng ảnh hưởng đến phẩm
giá cơ bản của cá nhân.
– Việc tập
trung vào nhân quyền mang lại cho các công ty, cơ quan quản lý và xã hội dân sự
một danh sách tác động được thiết lập rõ ràng để đánh giá và giải quyết các tác
động của hệ thống AI tạo ra.
– Nhân quyền
được kết nối với trải nghiệm sống của các bên liên quan có nguy cơ gặp rủi ro
và cũng cụ thể hơn các thuật ngữ thường được sử dụng để mô tả các đặc điểm của
hệ thống AI tạo sinh, bao gồm '"an toàn", "công bằng",
"có trách nhiệm" hoặc "đạo đức".
– Có các
phong trào và tổ chức xã hội quốc tế, khu vực và quốc gia đã được giao nhiệm vụ
thúc đẩy và bảo vệ nhân quyền, nhiều trong số đó cũng đang tích cực tham gia
vào việc xây dựng ý nghĩa của một số quyền nhất định trong bối cảnh mới.
Do đó, mục
tiêu của tài liệu này là cung cấp một khuôn khổ để hiểu các tác động xã hội
tiêu cực liên quan đến các sản phẩm và dịch vụ AI mang tính tổng hợp thường
tăng đến mức gây tổn hại đến các quyền con người được quốc tế bảo vệ. Đáng chú
ý, những tác động nhân quyền này thường tăng cao đối với các nhóm hoặc nhóm dân
cư vốn có nguy cơ cao trở nên dễ bị tổn thương hoặc bị gạt ra ngoài lề xã hội,
bao gồm cả phụ nữ và trẻ em gái. Hơn nữa, trong một số trường hợp, bối cảnh xã
hội và địa lý nơi những tác động này xảy ra có thể làm tăng mức độ rủi ro, ví dụ
như khi xảy ra tác động bất lợi về quyền trong bối cảnh miền Nam toàn cầu.
CÁC RỦI RO VỀ NHÂN QUYỀN
Phân loại này
xem xét các quyền con người có thể bị ảnh hưởng tiêu cực bởi AI tạo sinh, cung cấp các ví dụ thực tế cho từng quyền. Những
quyền này, được liệt kê dưới đây theo thứ tự xuất hiện trong Tuyên ngôn Quốc tế
Nhân quyền (UDHR), là:
– Không bị tổn
hại về thể chất và tâm lý
– Quyền bình
đẳng trước pháp luật và được bảo vệ chống phân biệt đối xử
– Quyền riêng
tư
– Quyền sở hữu
tài sản
– Tự do tư tưởng,
tôn giáo, lương tâm và quan điểm
– Tự do ngôn
luận và tiếp cận thông tin
– Quyền tham
gia vào các vấn đề công cộng
– Quyền được
làm việc và kiếm sống
– Quyền của
trẻ em
– Quyền về
văn hóa, nghệ thuật và khoa học
Dưới đây, hệ
thống phân loại lần lượt xem xét các quyền này, cung cấp cho từng quyền: bản tóm tắt lý do quyền gặp rủi ro khi phát triển, triển khai và/hoặc sử dụng
AI tạo sinh; một danh sách chọn lọc các điều khoản quan trọng của luật nhân
quyền quốc tế liên quan đến quyền này; và danh sách các ví dụ thực tế trong đó
AI có thể tạo ra có thể đe dọa quyền theo một cách nào đó, bao gồm cả các nguồn.
Mặc dù hệ thống
phân loại không cố gắng liệt kê một cách toàn diện tất cả các rủi ro tiềm ẩn đối
với nhân quyền, nhưng nó đưa ra việc kiểm tra một số cách chính mà nhân quyền
hiện đang gặp rủi ro do AI tạo sinh gây nên. Nhiều rủi
ro về nhân quyền trong số này có thể liên quan đến các dạng AI trước đây, nhưng
rủi ro có thể, hoặc trong một số trường hợp, đã bị thay đổi hoặc trở nên trầm
trọng hơn do các đặc điểm của AI tạo sinh. Trong một số trường hợp khác, AI tạo sinh đã gây nên những mối nguy hại
ở các khía cạnh hoàn toàn mới.
Như đã lưu ý
trong kết luận của phân loại, AI tạo sinh đang phát
triển nhanh chóng. Khi các trường hợp sử dụng công nghệ này mở rộng và khi bản
thân công nghệ được hiểu rõ hơn, những rủi ro liên quan đến nhân quyền chắc chắn
sẽ xuất hiện. Việc phân loại chủ yếu liên quan đến những rủi ro và tác động về
nhân quyền3 hiện đang được quan sát hoặc có thể sẽ sớm xảy ra. Những rủi ro tiềm
ẩn khác vẫn đang xuất hiện và trong tương lai có thể là một trong những mối đe
dọa nghiêm trọng nhất đối với nhân quyền liên quan đến AI. Trong mọi trường hợp,
hệ thống phân loại này tập trung vào cách AI tạo sinh–
chứ không phải AI nói chung – gây ra rủi
ro cho nhân quyền.
Cuối cùng,
cũng cần lưu ý rằng quyền con người có mối liên hệ và phụ thuộc lẫn nhau. Một
trường hợp sử dụng duy nhất của AI tạo thế hệ có thể đặt ra rủi ro cho một số
quyền cơ bản, tùy thuộc vào các yếu tố như địa lý nơi các hệ thống đó được triển
khai, nhóm chủ sở hữu quyền nào bị ảnh hưởng và hệ thống AI tạo thế hệ được sử
dụng trong lĩnh vực nào.
Tự do khỏi bị tổn hại về thể chất và tâm lý
TÓM TẮT
Quyền về an toàn cơ thể, được đảm bảo trong khuôn khổ nhân quyền quốc tế, có thể gặp
rủi ro từ các hệ thống AI tạo ra theo nhiều cách khác nhau. Trong một số trường
hợp, thông tin sai lệch vô tình bắt nguồn từ AI có thể tạo ra có thể dẫn đến
tác động tiêu cực đến các quyền này, ví dụ: gây tổn hại cho sức khỏe tâm thần của
cá nhân. Ở một số trường hợp khác khác, kết quả
đầu ra của mô hình AI tạo sinh có thể được
sử dụng để cố ý đe dọa an ninh thể chất hoặc tâm lý hoặc quyền tự do cá nhân của
cá nhân. Mặc dù một số nhà phát triển AI sáng tạo đã ban hành các biện pháp bảo
vệ để ngăn các mô hình xuất ra thông tin đó, nhưng một số biện pháp bảo vệ vẫn
dễ dàng bị phá vỡ.[1]
Hơn nữa, khi các mô hình dựa vào việc ghi nhãn dữ liệu của con người để đánh
giá tính chất bất hợp pháp hoặc có hại của các kết quả đầu ra, nếu có sự chậm trễ trong việc điều chỉnh các kết quả đầu
ra đó sẽ tạo điều kiện
cho các tác động xấu có cơ hội phát triển.[2]
CÁC QUY ĐỊNH NHÂN QUYỀN LIÊN QUAN
– “Ai cũng có
quyền được sống, tự do, và an toàn thân thể” (Điều 3 của UDHR)
– “Không ai
có thể bị tra tấn hay bị những hình phạt hoặc những đối xử tàn ác, vô nhân đạo,
làm hạ thấp nhân phẩm” (Điều 5 của UDHR)
– “Mọi cá
nhân đều có quyền được hưởng trạng thái sức khỏe thể chất và tinh thần tốt nhất
có thể” (Điều 16 ACHPR)[i]
– “Không ai
có thể bị bắt giữ, giam cầm hay lưu đầy một cách độc đoán” (Điều 9 ICCPR)
VÍ DỤ VỀ RỦI RO
– Thông tin
sai lệch được tạo ra bằng AI có thể được sử dụng theo những cách có nguy cơ
kích động bạo lực thể xác có mục tiêu chống lại các cá nhân hoặc nhóm cụ thể,[3] hoặc
gây bất ổn cho xã hội theo những cách có nguy cơ kích động bạo lực lan rộng, lẻ
tẻ hoặc ngẫu nhiên (chẳng hạn như liên quan đến
các cuộc tấn công khủng bố hư cấu, đảo chính hoặc gian lận bầu cử).
– Trình tạo
hình ảnh và video có thể được sử dụng để tạo nội dung khiêu dâm không có sự đồng
thuận, bao gồm các nội dung có tính dục về các cá
nhân có thật, không có sự đồng ý (“nội dung khiêu dâm deepfake”) và/hoặc mô tả
hình ảnh tình dục mang tính bạo lực.[4] Những
trình tạo như vậy cũng có thể được sử dụng để tạo ra tài liệu lạm dụng tình dục
trẻ em.[5]
Trong mọi trường hợp, phụ nữ và trẻ em gái đều có nguy cơ cao hơn.[6]
– Các hệ thống
AI tạo sinh có thể bị ảo giác (hallucinate) và tạo ra thông tin sai lệch. Một số thông tin sai lệch như vậy có thể có
nguy cơ kích động bạo lực thể chất đối với các cá nhân hoặc nhóm cụ thể hoặc
khiến họ bị tước đoạt tự do một cách tùy tiện.[7]
Trong các trường hợp khác, thông tin sai lệch về AI có thể khuyến khích người
dùng thực hiện các hành động gây nguy hiểm cho sức khỏe thể chất hoặc tâm lý của
họ,[8] đặc
biệt là những người thuộc nhóm dễ bị tổn thương (ví dụ, những người đang gặp khủng
hoảng về sức khỏe tâm thần).[9]
– AI sáng tạo
có thể được sử dụng để tạo điều kiện hoặc hỗ trợ hoạt động buôn người bằng cách
tạo ra nội dung dùng để lôi kéo hoặc dụ dỗ các cá nhân vào tình huống bị bóc lột.
Giống như trường hợp buôn người nói chung, phụ nữ và trẻ em có nguy cơ cao nhất.[10]
Quyền bình đẳng trước pháp luật và được bảo vệ chống phân biệt đối
xử
TÓM TẮT
Khuôn khổ
nhân quyền quốc tế trao cho tất cả mọi người quyền được bảo vệ bình đẳng chống
lại sự phân biệt đối xử. Kết quả đầu ra của các mô hình AI tạo sinh được biết
là phản ánh những thành kiến về văn hóa hiện diện trong các tập dữ liệu đào tạo
và trên internet nói chung.[11]
Điều này có thể dẫn đến việc phổ biến các định kiến có hại dựa trên chủng tộc,
màu da, giới tính, ngôn ngữ, tôn giáo, chính trị, quan điểm, nguồn gốc quốc gia hoặc xã hội, tài sản, hoặc các vấn
đề khác về thành phần xuất
thân hoặc địa vị xã hội, làm khuếch đại sự phân biệt đối xử và bất bình đẳng kinh tế xã hội hiện
có.
CÁC QUY ĐỊNH NHÂN QUYỀN LIÊN QUAN
– “Ai cũng được
hưởng những quyền tự do ghi trong bản Tuyên Ngôn này không phân biệt đối xử vì
bất cứ lý do nào, như chủng tộc, màu da, nam nữ, ngôn ngữ, tôn giáo, chính kiến
hay quan niệm, nguồn gốc dân tộc hay xã hội, tài sản, dòng dõi hay bất cứ thân
trạng nào khác" (UDHR Điều 2)
– “Mọi người
đều bình đẳng trước pháp luật và được pháp luật bảo vệ bình đẳng không kỳ thị.
Mọi người đều được bảo vệ chống lại mọi kỳ thị hay xúi giục kỳ thị trái với
Tuyên Ngôn này” (Điều 7 của UDHR)
VÍ DỤ VỀ RỦI RO
– Các mô hình
AI sáng tạo có thể tạo ra những kết quả xúc phạm hoặc có hại liên quan đến những
người có bản sắc bị gạt ra ngoài lề xã hội, khuếch đại những định kiến sai lầm
và có hại, đồng thời tạo điều kiện cho nhiều hình thức phân biệt đối xử khác
nhau trong toàn xã hội.[12]
– Đầu ra của
các mô hình AI tạo sinh thường đại diện quá mức cho các nhóm bá quyền về văn
hóa (da trắng, phương Tây, nam giới, dị tính, chuyển giới, những người được hưởng
lợi từ di sản của chủ nghĩa thực dân, v.v.), điều này có thể dẫn đến việc trình
bày sai hoặc trình bày không đúng mức về các nhóm khác trên quy mô lớn. Điều
này có thể củng cố những định kiến bất lợi, làm trầm trọng thêm những thành kiến
và phân biệt đối xử, đồng thời hạn chế khả năng của các nhóm hoặc cá nhân bị gạt
ra ngoài lề xã hội trong việc thực hiện quyền kiểm soát việc thể hiện danh tính
của họ trên các phương tiện truyền thông và trên internet.[13]
– “Các ngôn
ngữ có nguồn tài nguyên thấp” thường được thể hiện không đúng mức trong các bộ
dữ liệu đào tạo AI tạo sinh,[14] dẫn
đến hiệu suất kém của hệ thống AI tạo sinh dành cho những người nói các ngôn ngữ
này.[15]
Hiệu suất kém của AI tạo sinh đối với người dùng từ một số nền tảng ngôn ngữ, địa
lý và văn hóa nhất định có thể tự nó tạo thành một hình thức phân biệt đối xử
và đe dọa mở rộng khoảng cách kỹ thuật số ngày càng tăng giữa các quốc gia có
nguồn lực cao và nguồn lực thấp.
– Giống như
các công nghệ AI khác được sử dụng để ra quyết định tự động (ví dụ: công nghệ dự
đoán chính sách hoặc dự đoán tái phạm), các mô hình AI tạo sinh được sử dụng
cho mục đích ra quyết định có thể tạo điều kiện cho sự phân biệt đối xử.[16]
– Sự tập
trung phát triển AI toàn cầu ở Bắc bán cầu nhằm mục
đích “[tăng tốc] việc tạo và xử lý dữ liệu theo cấp số nhân” ở các quốc gia
này, làm trầm trọng thêm các vấn đề “nghèo dữ liệu” hiện có ở những nơi khác
trên thế giới.[17]
Việc thiếu khả năng tiếp cận dữ liệu có tác động tiêu cực tác động tới sự phát
triển kinh tế và do đó đối với nhiều quyền cơ bản khác nhau.
Quyền riêng tư
TÓM TẮT
AI sáng tạo đặt
ra một số lo ngại liên quan đến quyền riêng tư. Các phiên bản AI trước đây cũng
có liên quan đến những lo ngại này, nhưng một số đặc điểm kỹ thuật của các mô
hình AI tạo ra cho thấy nguy cơ cao hơn trong việc tạo điều kiện cho các tác động
bất lợi đối với các quyền này. Chúng bao gồm số lượng lớn dữ liệu đào tạo được
lấy từ Internet bằng một số mô hình ngôn ngữ lớn; sự phụ thuộc của các mô hình
ngôn ngữ lớn vào việc nhập dữ liệu từ người dùng cá nhân dưới dạng lời nhắc văn
bản; và khả năng của hệ thống AI tạo sinh nhằm tạo ra nội dung có hại, sai lệch
và thuyết phục có thể được sử dụng để tấn công trực tiếp vào quyền riêng tư,
danh dự hoặc danh tiếng của một cá nhân.
CÁC QUY ĐỊNH NHÂN QUYỀN LIÊN QUAN
– “Không ai
phải chịu sự can thiệp một cách tùy tiện vào đời sống riêng tư, gia đình, nhà ở
hoặc thư tín của họ cũng như bị xúc phạm đến danh dự và uy tín của họ” (UDHR Điều
12)
VÍ DỤ VỀ RỦI RO
– Dữ liệu đào
tạo được các mô hình AI tổng hợp sử dụng có thể chứa thông tin nhận dạng cá
nhân và các loại thông tin nhạy cảm hoặc riêng tư khác theo những cách liên
quan đến những lo ngại mới về quyền riêng tư.[18]
Khả năng của người dùng trong việc đưa ra sự đồng ý sáng suốt đối với việc thu
thập, sử dụng và lưu trữ dữ liệu của họ để đào tạo các mô hình AI tạo sinh có
thể bị tổn hại do sử dụng các bộ dữ liệu được quét trên web.[19]
– Người dùng
có thể nhập thông tin riêng tư hoặc nhạy cảm vào lời nhắc mô hình AI tạo sinh
mà không hiểu đầy đủ về cách dữ liệu của họ sẽ được thu thập, lưu trữ và sử dụng.
Dữ liệu này thường được sử dụng để đào tạo lại các mô hình[20]
và không rõ thông tin nhạy cảm như vậy có thể xuất hiện lại ở mức độ nào trong
các kết quả đầu ra của mô hình tiếp theo cho những người dùng khác.
– Việc thu thập,
lưu trữ và xử lý dữ liệu trên quy mô lớn (bao gồm cả dữ liệu cá nhân nhạy cảm)
liên quan đến các mô hình AI tổng hợp có thể làm tăng các lỗ hổng và khả năng
người dùng gặp phải các vụ vi phạm dữ liệu, hack và các vi phạm bảo mật khác.
Theo báo cáo, một số mô hình AI tạo sinh có thể bị tấn công để trích xuất các bản
sao của dữ liệu mà chúng được đào tạo thông qua “đảo ngược mô hình”.[21]
– Dữ liệu được
thu thập bởi các mô hình AI tổng hợp từ người dùng có thể được tổng hợp và bán
mà không có sự đồng ý rõ ràng của người dùng.
– Các công cụ
AI sáng tạo giúp giảm đáng kể khó khăn trong việc phân tích và tóm tắt khối dữ
liệu văn bản khổng lồ, bao gồm cả nội dung trên mạng xã hội. Trong một số bối cảnh,
điều này có thể tăng cường các hình thức giám sát hiện có của Nhà nước có nguy
cơ vi phạm quyền riêng tư trên quy mô lớn.
– Khả năng của
AI tổng hợp để tạo các quảng cáo được nhắm mục tiêu riêng lẻ trên quy mô lớn có
thể khuyến khích các doanh nghiệp thu thập nhiều thông tin cá nhân hơn từ người
dùng, gây ra những tác động tiêu cực đến quyền riêng tư.[22]
– Nhìn rộng
ra, việc tạo ra thông tin sai lệch, mang tính chất phỉ báng liên quan đến các
cá nhân cụ thể sẽ cấu thành hành vi tấn công vào danh dự và danh tiếng của một
người.[23]
Điều này có thể xuất phát từ việc cố ý sử dụng các mô hình AI tạo sinh để tạo và phổ biến thông tin phỉ báng, sai lệch[24]
hoặc do sự ảo giác một cách vô ý của các mô
hình AI tạo ra.[25]
Quyền sở hữu tài sản
TÓM TẮT
Việc sử dụng
số lượng lớn dữ liệu của các mô hình AI sáng tạo có thể gây ra những tác động bất
lợi đến quyền sở hữu tài sản trí tuệ và đạo đức của cá nhân. Quy trình đào tạo
cho một số mô hình AI sáng tạo có thể liên quan đến việc sử dụng trái phép các
tác phẩm được bảo vệ, ảnh hưởng xấu đến quyền sở hữu tài sản của tác giả gốc của
những tác phẩm đó. Khả năng của các hệ thống AI tạo ra nội dung bắt chước các
tác phẩm hiện có của con người cũng đe dọa đến quyền sở hữu của tác giả gốc.
CÁC QUY ĐỊNH NHÂN QUYỀN LIÊN QUAN
– “Ai cũng có
quyền sở hữu, hoặc riêng tư hoặc hùn hiệp với người khác […] Không ai có thể bị
tước đoạt tài sản một cách độc đoán.” (UDHR Điều 17)
– “Ai cũng được
bảo vệ bởi những quyền lợi tinh thần và vật chất phát sinh từ những sản phẩm
khoa học, văn học hay nghệ thuật của mình.” (UDHR Điều 27 (2))
VÍ DỤ VỀ RỦI RO
– Một số mô
hình AI tạo sinh được đào tạo trên số lượng lớn văn bản được lấy từ internet,
có thể bao gồm các nguồn được bảo hộ về mặt sở hữu trí tuệ.[26] Bản
thân điều này có thể tạo ra tác động bất lợi đến quyền sở hữu tài sản của cá
nhân và bảo vệ lợi ích vật chất nơi các tác giả gốc chưa đồng ý cho tác phẩm của
mình được sử dụng cho mục đích đào tạo.[27]
– Người dùng
có thể sử dụng các mô hình AI tổng hợp được đào tạo về dữ liệu có bản quyền để
tạo ra nội dung giống với tác phẩm gốc của người khác theo những cách tác động
tiêu cực đến quyền sở hữu của tác giả gốc.[28]
– Trong một số
trường hợp, các mô hình AI sáng tạo có thể sao chép trực tiếp tác phẩm gốc của
người khác, tác động tiêu cực hơn nữa đến quyền sở hữu của tác giả gốc.[29]
– Các mô hình
AI sáng tạo có thể được sử dụng để tạo ra nội dung hiệu quả hơn cho các cuộc tấn
công an ninh mạng như thư rác, lừa đảo hoặc vi phạm dữ liệu, dẫn đến mất mát hoặc
hư hỏng tài sản.[30]
Tự do tư tưởng, tôn giáo, lương tâm và quan điểm
TÓM TẮT
Quyền tự chủ
trong việc tự do hình thành và giữ quan điểm là yếu tố cốt lõi của khuôn khổ
nhân quyền quốc tế. Các chuyên gia nhân quyền trước đây đã cảnh báo rằng công
nghệ AI có nguy cơ “vô hình [thay thế, thao túng hoặc can thiệp] vào khả năng
các cá nhân hình thành và giữ quan điểm của mình…”[31]
AI sáng tạo có thể gây ra rủi ro cao hơn trong lĩnh vực này. Nhiều người dùng sẽ
khó phân biệt nội dung internet nào là tổng hợp và đâu là nội dung thật – một
nghiên cứu gần đây cho thấy rằng con người thực sự có nhiều khả năng tin vào
thông tin sai lệch khi nó được tạo bằng các công cụ AI tổng hợp.[32]
Hơn nữa, nhiều hệ thống AI tổng hợp có liên quan đến sự tương tác trực tiếp với
người dùng được thiết kế để bắt chước các hình thức giao tiếp của con người.
Khi được ban hành mà không có sự đồng ý thích hợp, những đặc điểm này cho thấy
nguy cơ cao là suy nghĩ và ý kiến của các cá nhân có thể bị ảnh hưởng quá mức
và vô hình bởi AI tạo ra.
CÁC QUY ĐỊNH NHÂN QUYỀN LIÊN QUAN
– “Ai cũng có
quyền tự do tư tưởng, tự do lương tâm và tự do tôn giáo”, “Không ai có thể bị ép buộc làm phương hại đến quyền tự do có hoặc
theo một tôn giáo hay tín ngưỡng mà mình lựa chọn.” (UDHR Điều 18, ICCPR 18(2))[ii]
– “Ai cũng có
quyền tự do quan niệm và tự do phát biểu quan điểm; quyền này bao gồm quyền
không bị ai can thiệp vì những quan niệm của mình, và quyền tìm kiếm, tiếp nhận
cùng phổ biến tin tức và ý kiến bằng mọi phương tiện truyền thông không kể biên
giới quốc gia” (UDHR Điều 19)
– “Điều 18
[ICCPR] không cho phép bất kỳ hạn chế nào đối với quyền tự do tư tưởng và lương
tâm.” (Bình luận chung của Ủy ban Nhân quyền số 22, đoạn 3)
VÍ DỤ VỀ RỦI RO
– Việc phổ biến
trực tuyến thông tin sai lệch được tạo ra bằng AI tổng hợp có thể đe dọa quyền
tự do suy nghĩ và quan điểm của người dùng internet khi gặp phải thông tin đó
mà không biết rằng thông tin đó là sai sự thật hoặc có nguồn gốc tổng hợp.[33]
Điều này có thể bao gồm, ví dụ, thao túng thông tin cá nhân niềm tin về chính
trị hoặc khoa học thông qua việc truyền bá thông tin sai lệch có mục tiêu được
cố tình tạo ra bằng các công cụ AI tạo ra hoặc thông tin sai lệch do các mô
hình AI tạo ra gây ảo giác.[34]
– Việc người
dùng phụ thuộc vào các hệ thống AI có tính sáng tạo để hình thành ý tưởng của họ
cũng có thể gây rủi ro cho quyền tự do tư tưởng và quan điểm. Khi mọi người sử
dụng các công cụ AI tạo sinh để phát triển và thể hiện suy nghĩ của mình kết hợp
thông tin không chính xác, sai lệch hoặc không đầy đủ do hệ thống AI tạo sinh
đưa ra vào ý tưởng của họ, thì suy nghĩ của người dùng có thể bị thao túng theo
những cách không lường trước được.
– Một số hệ
thống AI tổng hợp liên quan đến tương tác trực tiếp với người dùng được thiết kế
để bắt chước các kiểu giao tiếp của con người nhiều hơn những hệ thống khác.[35]
Khi các hệ thống như vậy không làm cho người dùng nhận thức đầy đủ rằng họ
không giao tiếp với con người, khả năng của người dùng là tự do đưa ra ý kiến
thao tác có thể bị vi phạm. Ngay cả khi người dùng biết về mặt trí tuệ rằng họ
đang tương tác với một cỗ máy, một hệ thống AI được tạo ra được nhân cách hóa một
cách có chủ ý để bắt chước con người vẫn có thể vi phạm các quyền tự do suy
nghĩ và quan điểm này.
– Khi các hệ
thống AI tổng hợp không thông báo cho người dùng về những hạn chế về hiệu suất
hoặc dữ liệu đào tạo của hệ thống, điều này cũng có thể tác động tiêu cực đến
quyền tự do quan điểm. Ví dụ: khi người dùng không biết rằng hệ thống chỉ được
đào tạo về thông tin cho đến một ngày nhất định hoặc được đào tạo để ưu tiên
các quan điểm nhất định, họ có thể vô tình hình thành ý kiến dựa trên kết quả đầu
ra của mô hình không chính xác và lỗi thời.[36]
– Khả năng của
AI tạo ra các quảng cáo nhắm mục tiêu riêng lẻ trên quy mô lớn có thể mang lại
cho doanh nghiệp mức độ ảnh hưởng chưa từng có đối với người dùng internet,
theo những cách có thể đe dọa quyền tự do tư tưởng và quan điểm.[37]
Tự do ngôn luận và tiếp cận thông tin
TÓM TẮT
Quyền tự do
biểu đạt vừa là một quyền cơ bản của con người vừa là cốt lõi của nhiều quyền
khác. Hơn nữa, quyền tiếp cận thông tin đáng tin cậy là một yếu tố then chốt của
quyền tự do ngôn luận.[38]
Khi các cá nhân bị ngăn cản truy cập thông tin thực tế hoặc không thể xác định
thông tin nào là thực tế và thông tin nào không, thì quyền tự do ngôn luận sẽ bị
vi phạm. AI sáng tạo – bao gồm khả năng nhanh chóng tạo ra nội dung sai lệch có
vẻ do con người tạo ra và có thẩm quyền trên quy mô lớn – có thể gây rủi ro cho
quyền tự do ngôn luận theo nhiều cách khác nhau.
CÁC QUY ĐỊNH NHÂN QUYỀN LIÊN QUAN
– “Ai cũng có
quyền tự do quan niệm và tự do phát biểu quan điểm; quyền này bao gồm quyền
không bị ai can thiệp vì những quan niệm của mình, và quyền tìm kiếm, tiếp nhận
cùng phổ biến tin tức và ý kiến bằng mọi phương tiện truyền thông không kể biên
giới quốc gia” (UDHR Điều 19)
– “Tự do
thông tin đòi hỏi một yếu tố không thể thiếu là sự sẵn lòng và khả năng sử dụng
các đặc quyền của mình mà không bị lạm dụng. Nó đòi hỏi như một kỷ luật cơ bản,
nghĩa vụ đạo đức là tìm kiếm sự thật mà không thành kiến và truyền bá kiến thức
mà không có mục đích xấu” (UNGA Nghị quyết 59 năm 1949)
VÍ DỤ VỀ RỦI RO
– AI sáng tạo
có thể bị các tác nhân độc hại lợi dụng để tạo ra nội dung sai sự thật nhưng
thuyết phục, được vũ khí hóa theo những cách có chủ đích nhằm đe dọa quyền tự
do ngôn luận – ví dụ: việc sử dụng thông tin sai lệch do AI tạo ra để quấy rối
các nhà báo hoặc đối thủ chính trị để tự kiểm duyệt.[39] Nữ
các nhân vật của công chúng đặc biệt có nguy cơ bị quấy rối trực tuyến có chủ
đích.[40]
– Sự phổ biến
của nội dung internet không chính xác được tạo bằng các công cụ AI tổng hợp –
cho dù là thông tin sai lệch hay thông tin sai lệch – có thể làm mất đi hoặc
che khuất thông tin trực tuyến dựa trên bằng chứng và được kiểm tra thực tế, đe
dọa rộng rãi đến quyền truy cập thông tin của các cá nhân và cộng đồng. Hậu quả
của việc này, bao gồm sự xói mòn lòng tin của công chúng đối với các phương tiện
truyền thông và các quy trình chính trị,[41]
có thể tác động tiêu cực đến nhiều quyền khác cũng như quản trị dân chủ ở phạm
vi rộng hơn.
– Hiệu suất
kém của các hệ thống AI tạo sinh dành cho người nói các ngôn ngữ có nguồn tài
nguyên thấp đe dọa quyền tự do thể hiện bản thân của các cộng đồng này bằng
cách sử dụng AI tạo sinh,[42]
bao gồm cả việc hạn chế khả năng truy cập thông tin của họ thông qua các hệ thống
AI tạo sinh.
– Xu hướng đầu
ra của mô hình AI tạo sinh đại diện quá mức cho các nhóm bá quyền về mặt văn
hóa có thể dẫn đến việc không tạo ra được sự đa dạng về quan điểm và thông tin
của và về các nhóm thiểu số hoặc bị áp bức trong lịch sử. Kết quả là sự thiếu hụt
thông tin này trên không gian trực tuyến gây ra rủi ro cho quyền truy cập thông
tin một cách rộng rãi.
– Việc kiểm
duyệt quá mức đối với đầu ra AI có tính sáng tạo có thể dẫn đến những hạn chế đối
với quyền tự do ngôn luận (ví dụ: cấm người dùng tạo ra các kết quả đầu ra đồ họa
có thể nhằm mục đích biểu đạt nghệ thuật hoặc châm biếm hoặc hạn chế tiềm năng
của AI có tính sáng tạo để hỗ trợ người khuyết tật trong giao tiếp suy nghĩ hoặc
cảm xúc của họ).
Quyền tham gia vào các vấn đề công cộng
TÓM TẮT
Các quy trình
bầu cử gần đây đã bị tác động tiêu cực do sự xói mòn niềm tin của công chúng
vào các quy trình chính trị và thể chế dân chủ, một phần được thúc đẩy bởi các
chiến dịch có mục tiêu sử dụng thông tin xuyên tạc và thông tin sai lệch trên
nhiều kênh truyền thông.[43]
Việc lan truyền thông tin xuyên tạc có tổ chức, kết hợp với các yếu tố khác, có
thể gây tiêu cực tác động đến quyền của các cá nhân và cộng đồng trong việc tự
do tham gia vào các vấn đề công theo nhiều cách khác nhau.[44]
Đáng lo ngại là nội dung mang tính tổng quát do AI tạo ra, thường dựa trên các
tuyên bố của các chủ thể chính trị, sẽ làm tăng thêm rủi ro này. Nội dung sai sự
thật nhưng thuyết phục từ các nền tảng AI sáng tạo, bao gồm cả ở dạng deepfake,
giờ đây dễ sản xuất hơn trên quy mô lớn và có thể làm suy yếu quyền tham gia
vào các vấn đề công cộng trên toàn thế giới.[45]
Trong khi một số nhà phát triển AI sáng tạo đã công bố kế hoạch đưa ra các biện
pháp bảo vệ , chẳng hạn như nỗ lực ngăn chặn các chatbot AI mạo danh các ứng cử
viên hoặc quan chức chính phủ thực sự hoặc tạo hình mờ cho hình ảnh AI,[46]
đây là một lĩnh vực cần quan tâm xét về quy mô và tốc độ mà nội dung đó có thể
lan truyền cũng như khó khăn trong việc kiểm tra thông tin này.[47]
CÁC QUY ĐỊNH NHÂN QUYỀN LIÊN QUAN
– “1. Ai cũng có quyền tham gia chính quyền của quốc gia mình, hoặc trực
tiếp hoặc qua các đại biểu do mình tự do lựa chọn.
2. Ai cũng có
quyền bình đẳng tham gia công vụ trong nước.
3. Ý nguyện của
quốc dân phải được coi là căn bản của mọi quyền lực quốc gia; ý nguyện này phải
được biểu lộ qua những cuộc tuyển cử có định kỳ và trung thực, theo phương thức
phổ thông đầu phiếu kín, hay theo các thủ tục tuyển cử tự do tương tự.” (UDHR
Điều 21)
– “Mọi công
dân, không có bất kỳ sự phân biệt nào như đã nêu ở điều 2 và không có bất kỳ sự
hạn chế bất hợp lý nào, đều có quyền và cơ hội để:
a) Tham gia
điều hành các công việc xã hội một cách trực tiếp hoặc thông qua những đại diện
do họ tự do lựa chọn;
b) Bầu cử và ứng
cử trong các cuộc bầu cử định kỳ chân thực, bằng phổ thông đầu phiếu, bình đẳng
và bỏ phiếu kín, nhằm đảm bảo cho cử tri được tự do bày tỏ ý nguyện của mình;
c) Được tiếp
cận với các dịch vụ công cộng ở đất nước mình trên cơ sở bình đẳng.” (Điều 25
ICCPR)
VÍ DỤ VỀ RỦI RO
– Các tác phẩm
deepfake về âm thanh và/hoặc video AI mang tính sáng tạo có mô tả sai sự thật về
các nhân vật chính trị hoặc mô tả các sự kiện hư cấu có ý nghĩa chính trị có thể
tác động tiêu cực đến quyền bầu cử tự do của các cá nhân cho các ứng cử viên hoặc
mục đích mà họ lựa chọn. Ví dụ: các cá nhân tham gia vào các mô tả deepfake
tinh vi về các chính trị gia đưa ra các tuyên bố hư cấu có thể vô tình khiến niềm
tin chính trị của họ bị thay đổi dựa trên sự giả dối, cản trở khả năng thực hiện
quyền tham gia vào các vấn đề công cộng và có khả năng ảnh hưởng đến việc đảm bảo
cho một cuộc bầu cử thể hiện quyền tự do. thể hiện ý chí của cử tri.[48]
Ngay cả khi các tác phẩm deepfake không được trình bày rõ ràng dưới dạng mô tả
xác thực, thuyết phục về các nhân vật chính trị có thật có thể khiến cử tri bối
rối và tác động tiêu cực đến quyền của họ.[49]
– Deepfakes
cũng có thể được sử dụng để ngăn chặn lượng cử tri đi bỏ phiếu. Ví dụ: mô tả giả
mạo về các quan chức bầu cử có thể phổ biến thông tin sai lệch nhưng thuyết phục
về giờ bỏ phiếu, địa điểm, tư cách hợp lệ, v.v. Điều này có thể khiến cử tri bị
tước quyền bầu cử. Ngoài ra, các hành vi deepfake về các ứng cử viên chính trị
có thể gợi ý sai lệch rằng các ứng cử viên đang rút lui khỏi cuộc bầu cử.[50]
– AI sáng tạo
cũng có thể gây rủi ro cho quá trình bầu cử và an ninh. Ví dụ: deepfake mạo
danh các quan chức bầu cử có thể cho phép các tác nhân độc hại có quyền truy cập
vào thông tin quản lý hoặc bảo mật bầu cử nhạy cảm.
– Nội dung
văn bản được tạo bằng AI tổng hợp, chẳng hạn như dưới dạng các tuyên bố hoặc
thông cáo báo chí có vẻ gian lận nhưng có vẻ có thẩm quyền từ các cơ quan chính
phủ hoặc các chiến dịch chính trị được sản xuất trên quy mô lớn, cũng có thể ảnh
hưởng đến quyền tham gia vào các vấn đề công cộng.[51]
– Khi các cá
nhân hình thành quan điểm chính trị dựa trên các cuộc trò chuyện với chatbot, xu
hướng tạo ảo giác thông tin sai lệch của AI có thể dẫn đến niềm tin chính trị của
cử tri bị thao túng thông qua thông tin không chính xác từ những gì họ tin là
nguồn có thẩm quyền.[52]
– Chatbots và
các nền tảng AI tổng hợp khác có thể được sử dụng để tự động hóa quá trình tác
động đến dư luận chính trị trực tuyến thông qua số lượng lớn bình luận trên
internet và các bài đăng trên mạng xã hội liên quan đến chính trị. Mặc dù bản
thân điều này có thể không gây ra rủi ro đối với nhân quyền, nhưng trong tay những
kẻ độc hại, những công cụ này có thể tạo điều kiện thuận lợi đáng kể cho việc
phát động các chiến dịch có mục tiêu nhằm phá hoại các tiến trình chính trị tự
do theo những cách đe dọa đến quyền tham gia vào các vấn đề công.[53]
Quyền làm việc và kiếm sống
TÓM TẮT
AI sáng tạo
có tiềm năng thay đổi mạnh mẽ thị trường kinh tế và lao động cũng như thực tiễn
công việc hàng ngày. Mặc dù một số thay đổi trong cách làm việc của con người
là không thể tránh khỏi do tiến bộ công nghệ, nhưng AI có khả năng tạo ra có thể
có tác động đáng kể về kinh tế và lao động, ảnh hưởng đến quyền làm việc và kiếm
sống của cá nhân theo một số cách. Hơn nữa, việc triển khai AI sáng tạo trong
môi trường lao động sẽ ảnh hưởng khác nhau đến các nhóm chủ bản quyền và loại
công việc khác nhau.
CÁC QUY ĐỊNH NHÂN QUYỀN LIÊN QUAN
– “Mọi người
đều có quyền làm việc, tự do lựa chọn việc làm, được hưởng những điều kiện làm
việc công bằng và thuận lợi và được bảo vệ khỏi nạn thất nghiệp.” (UDHR Điều 23
(1))
– “Các quốc
gia thành viên Công ước này công nhận quyền làm việc, trong đó bao gồm quyền của
mọi người có cơ hội kiếm sống bằng công việc mà họ tự do lựa chọn hoặc chấp nhận,
và sẽ thực hiện các bước thích hợp để bảo vệ quyền này” (Điều ICESCR . 6 (1))
– Các quốc
gia thành viên Công ước này công nhận quyền của mọi người được hưởng những điều
kiện làm việc công bằng và thuận lợi” (ICESCR Điều 7)
– “Mỗi Thành
viên phê chuẩn Công ước này phải thúc đẩy cải tiến liên tục an toàn và vệ sinh
lao động để ngăn ngừa thương tích, bệnh tật và tử vong nghề nghiệp bằng cách
phát triển, với sự tham vấn của các tổ chức đại diện nhất của người sử dụng lao
động và người lao động, một chính sách quốc gia, hệ thống quốc gia và chương
trình quốc gia.” (Công ước về Khung xúc tiến của ILO về An toàn và Sức khỏe Lao
động Điều 2)
– “Người lao
động và người sử dụng lao động, không có sự phân biệt nào, có quyền thành lập
và chỉ tuân theo các quy định của tổ chức liên quan, tham gia các tổ chức do họ
lựa chọn mà không cần có sự cho phép trước.” (Công ước về Tự do Hiệp hội và Bảo
vệ Quyền Tổ chức của ILO, Điều 2)
– “Mỗi Thành
viên mà Công ước này có hiệu lực cam kết tuyên bố và theo đuổi chính sách quốc
gia nhằm thúc đẩy, bằng các phương pháp phù hợp với điều kiện và thực tiễn quốc
gia, sự bình đẳng về cơ hội và đối xử trong việc làm và nghề nghiệp, nhằm loại
bỏ bất kỳ sự phân biệt đối xử về vấn đề đó.” (Công ước về phân biệt đối xử (Việc
làm và nghề nghiệp) của ILO Điều 2)
VÍ DỤ VỀ RỦI RO
– Các công ty
có thể thay thế người lao động bằng các công cụ AI sáng tạo[54]
hoặc tạm dừng tuyển dụng những vai trò có thể được thực hiện bởi AI sáng tạo
trong tương lai.[55]
Sự dịch chuyển này, đặc biệt là khi mạng lưới an toàn xã hội yếu hoặc không tồn
tại, có thể đe dọa quyền được bảo vệ khỏi thất nghiệp của cá nhân. Các nhóm lao
động có nhiều khả năng bị thay thế nhất, chẳng hạn như nhân viên văn thư,[56]
có thể dẫn đến tình trạng mất việc làm không cân xứng giữa các nhóm cụ thể, những
người đại diện nhiều trong các ngành nghề này, bao gồm cả phụ nữ.[57]
– Sự sáng tạo
của con người có nguy cơ cao bị thay thế bởi AI sáng tạo. Các nghệ sĩ con người
trong các lĩnh vực khác nhau đã được thay thế bằng nội dung sáng tạo do AI tạo
ra[58]
và một số nghệ sĩ đã tham gia vào thương lượng tập thể để đáp lại.[59]
– Người lao động
tham gia tranh chấp lao động với người sử dụng lao động có thể có nguy cơ cao bị
thay thế bằng các công cụ AI mang tính sáng tạo, ảnh hưởng đến quyền của người
lao động được lập hội và bảo vệ khỏi thất nghiệp.[60]
– Các mô hình
AI sáng tạo có thể được các công ty sử dụng để theo dõi hiệu suất của nhân
viên, gây lo ngại về tính chính xác của các công cụ đó. Ví dụ: chatbot được sử
dụng để đánh giá hiệu suất của nhân viên có thể đưa ra những thành kiến dựa
trên giới tính, chủng tộc hoặc độ tuổi.[61]
– Việc phát
triển một số hệ thống AI tạo sinh đòi hỏi việc ghi nhãn dữ liệu phải được thực
hiện bởi con người. Một số nhà phát triển AI có tính sáng tạo được cho là đã
giao công việc này cho người lao động ở các quốc gia có thu nhập thấp, những
người đã mô tả điều kiện làm việc bị bóc lột.[62]
– Chatbots và
các công cụ tìm kiếm tổng hợp có sự hỗ trợ của AI khác có thể hướng người dùng
ra khỏi các trang web nguồn nơi lưu trữ thông tin. Kết quả là lưu lượng truy cập
trang web giảm có thể khiến các doanh nghiệp trực tuyến vừa và nhỏ mất doanh
thu quảng cáo.[63]
Quyền của trẻ em
TÓM TẮT
Trẻ em đặc biệt dễ bị tổn hại về
quyền con người liên quan đến trí tuệ nhân tạo. Trẻ em ít có khả năng phân biệt
nội dung tổng hợp với nội dung chân thực, xác định thông tin không chính xác và
hiểu rằng chúng đang tương tác với một cỗ máy chứ không phải với con người. Những
động lực này khiến trẻ em có nguy cơ cao bị ảnh hưởng tiêu cực đến nhân quyền.
CÁC QUY ĐỊNH NHÂN QUYỀN LIÊN QUAN
– “Việc làm mẹ
và tuổi thơ có quyền được chăm sóc và giúp đỡ đặc biệt. Mọi trẻ em dù sinh ra
trong giá thú hay ngoài giá thú đều được hưởng sự bảo trợ xã hội như nhau”
(UDHR Điều 25)
– “Các Quốc
gia thành viên phải đảm bảo ở mức độ tối đa có thể được sự tồn tại và phát triển
của trẻ em” (Điều 6 (2) của CRC)
– “Các quốc
gia thành viên thừa nhận chức năng quan trọng của các phương tiện thông tin đại
chúng và phải đảm bảo rằng trẻ em có thể tiếp cận thông tin và tài liệu từ nhiều
nguồn quốc gia và quốc tế khác nhau, đặc biệt là những nguồn nhằm thúc đẩy phúc
lợi xã hội, tinh thần và đạo đức của trẻ -sức khỏe thể chất và tinh thần.” (Điều
17 CRC)
– “Các quốc
gia thành viên phải thực hiện mọi biện pháp lập pháp, hành chính, xã hội và
giáo dục thích hợp để bảo vệ trẻ em khỏi mọi hình thức bạo lực về thể chất hoặc
tinh thần, gây thương tích hoặc lạm dụng, bỏ mặc hoặc lơ là đối xử, ngược đãi
hoặc bóc lột, bao gồm cả lạm dụng tình dục” (Điều CRC. 19 (1))
VÍ DỤ VỀ RỦI RO
– Các mô hình
AI sáng tạo hoặc ứng dụng truyền thông xã hội sử dụng AI sáng tạo có thể thiếu
các giới hạn phù hợp với lứa tuổi, cho phép người dùng chưa đủ tuổi chia sẻ
thông tin cá nhân[64]
hoặc tiếp xúc với nội dung không phù hợp hoặc gây tổn hại cho lứa tuổi của họ
(ví dụ: nội dung trực tuyến liên quan đến việc tự làm hại bản thân hoặc rối loạn về ăn uống,[65]
đã được chứng minh là đặc biệt gây tổn hại cho các bé gái trong lịch sử[66]).
– Người dùng
chưa đủ tuổi có nhiều khả năng chuyển sang sử dụng các chatbot AI tổng hợp để
được tư vấn về các chủ đề như sức khỏe tình dục; lời khuyên được đưa ra có thể
chứa thông tin sai lệch khiến trẻ em gặp nguy hiểm.[67]
– Các mô hình
AI sáng tạo có thể ảnh hưởng hoặc hạn chế sự phát triển nhận thức hoặc hành vi
của trẻ khi phụ thuộc quá nhiều vào kết quả đầu ra của các mô hình này, chẳng hạn
như khi trẻ sử dụng các công cụ này để thay thế cho việc học trong môi trường
giáo dục. Những trường hợp sử dụng này cũng có thể khiến trẻ vô tình áp dụng những
hiểu biết sai lệch hoặc sai lệch về các sự kiện lịch sử, xu hướng xã hội, v.v.[68]
– Các mô hình
AI sáng tạo có thể tạo ra những con đường mới để trẻ em tiếp xúc với nội dung
có hại. Trẻ em có thể dễ bị ảnh hưởng bởi thông tin sai lệch, lừa đảo hoặc tấn
công lừa đảo hơn do các mô hình AI tạo ra.[69]
Quyền văn hóa, nghệ thuật và khoa học
TÓM TẮT
Mọi người đều
có quyền bình đẳng trong việc tham gia văn hóa, thưởng thức nghệ thuật và hưởng
lợi từ tiến bộ khoa học. Các quyền này có thể bị AI tạo ra gặp rủi ro theo nhiều
cách khác nhau. Xu hướng của các mô hình AI tạo sinh đại diện quá mức cho một số
nền văn hóa nhất định, gây bất lợi cho các nền văn hóa khác trong cả quá trình
phát triển và kết quả đầu ra của chúng khiến các hệ thống này khó tiếp cận và hữu
ích hơn đối với các nhóm dân cư đa dạng và người nói các ngôn ngữ có nguồn lực
thấp. Hơn nữa, khả năng tạo ra các sản phẩm AI có tính sáng tạo để thay thế nghệ
thuật do con người tạo ra cho thấy những tác động tiêu cực hơn nữa đối với việc
thưởng thức văn hóa và nghệ thuật đúng đắn.
CÁC QUY ĐỊNH NHÂN QUYỀN LIÊN QUAN
– “Mọi người
đều có quyền tự do tham gia vào đời sống văn hóa của cộng đồng, thưởng thức nghệ
thuật và chia sẻ tiến bộ khoa học cũng như lợi ích của nó” (UDHR Điều 27)
– “Mọi người
đều có quyền được hưởng những lợi ích của tiến bộ khoa học và ứng dụng của nó”
(ICESCR Điều 15)
VÍ DỤ VỀ RỦI RO
– Khi nội
dung nghệ thuật tổng hợp do AI tạo ra lấn át nghệ thuật do con người tạo ra
trong không gian trong và ngoài mạng, điều này có tác động tiêu cực rộng rãi đến
quyền thưởng thức nghệ thuật và văn hóa.[70]
– Hiệu suất
kém của các hệ thống AI tạo sinh dành cho những người nói các ngôn ngữ có nguồn
tài nguyên thấp đe dọa quyền của những cá nhân này được chia sẻ tiến bộ khoa học
mà AI tạo sinh đại diện.
– Sự tập
trung phát triển AI tạo sinh ở Hoa Kỳ và Châu Âu[71]– đặc biệt là trong các bối cảnh phát triển nguồn đóng– có thể làm
cho các hệ thống AI tạo sinh ít có khả năng tạo ra các kết quả đầu ra thể hiện
chính xác các giá trị văn hóa, niềm tin và thực tiễn của người dùng từ các khu
vực địa lý khác nhau.[72]
Điều này có thể cản trở các cá nhân từ các nền văn hóa này sử dụng và hưởng lợi
từ công nghệ AI sáng tạo, cản trở quyền tham gia vào văn hóa của họ.
Phần kết luận
AI sáng tạo
là một công nghệ có tác động trên phạm vi rộng. Chắc chắn rằng một số tác động
này sẽ có lợi cho cả năng suất kinh tế và việc nâng cao nhân quyền. Ví dụ, AI tạo
sinh, nếu được phát triển, triển khai và sử dụng một cách có trách nhiệm, sẽ có
khả năng cải thiện khả năng tiếp cận thông tin, cho phép tự do ngôn luận và có
khả năng nâng cao các quyền về sức khỏe, giáo dục, thủ tục tố tụng hợp pháp và
khả năng tiếp cận các dịch vụ công, cùng nhiều quyền khác.
Tuy nhiên, như được trình bày chi tiết trong phân loại này, AI tạo sinh cũng đang làm tăng rủi ro đối với nhân quyền. Trong một số trường hợp, AI sáng tạo đang thay đổi phạm vi rủi ro về nhân quyền vốn có liên quan đến một số công nghệ kỹ thuật số. Ví dụ: thông tin sai lệch và thông tin sai lệch trực tuyến được biết là gây rủi ro cho quyền tự do biểu đạt và khả năng tạo ra nội dung sai lệch, thuyết phục của AI trên quy mô lớn đang làm trầm trọng thêm những rủi ro đó. Tương tự như vậy, việc các doanh nghiệp thu thập quá nhiều dữ liệu người dùng là một rủi ro rõ ràng đối với quyền riêng tư. Khi sự phát triển của AI tạo sinh chuyển dịch các phương thức tạo nội dung số khỏi các chương trình soạn thảo văn bản thông thường, và khi dữ liệu được chuyển từ máy cá nhân sang chatbot và các nền tảng khác cho phép doanh nghiệp truy cập vào dữ liệu được nhập thông qua cuộc hội thoại của người dùng, kết quả sẽ dẫn đến bước nhảy vọt về số lượng trong lượng dữ liệu người dùng do các công ty nắm giữ đang làm tăng thêm mối lo ngại về quyền riêng tư hiện có.
Trong một bối cảnh
khác, các đặc điểm riêng của AI tạo sinh đang dẫn đến những rủi ro về nhân quyền
không chỉ khác nhau về phạm vi mà còn về bản chất. Ví dụ, sự đan xen giữa cơ
quan con người với AI có khả năng tạo ra khi con người ngày càng dựa vào những
công cụ này để phát triển và bày tỏ suy nghĩ của mình sẽ gây ra rủi ro đối với
quyền tự do quan điểm và suy nghĩ theo những cách mới lạ mà mới chỉ bắt đầu được
quan sát. Mặt khác, AI sáng tạo đang
ngày càng có năng lực lập trình máy tính mạnh mẽ, một
khả năng vốn trước đây chủ
yếu nằm trong các tổ chức lớn. Việc các chủ
thể với ý đồ xấu có khả năng sử dụng
truy cập vào các tính năng này đang mở ra những rủi ro mới đối với
nhân quyền, bao gồm quyền riêng tư và quyền tài sản.[73]
Cuối cùng,
trí tuệ nhân tạo có thể tạo ra những rủi ro bổ sung đối với nhân quyền sẽ xuất
hiện trong trung hạn. Khi công nghệ biến đổi này phát triển và khi các trường hợp
sử dụng của công ty và chính phủ phát triển cùng với nó, chúng ta có thể dự
đoán rằng nhân quyền sẽ bị đe dọa theo những cách mới. Ví dụ, các chuyên gia được
B-Tech tư vấn đã nêu lên mối lo ngại về khả năng kết hợp nhiều mô hình AI tổng
hợp thành các hệ thống lớn hơn duy nhất có khả năng tự động tạo ra đầu vào và đầu
ra;[74]
tác động của những hệ thống như vậy đối với việc phổ biến một lượng lớn thông
tin sai lệch một cách tự động đang là vấn đề đáng lo ngại.[75]
Việc áp dụng AI vào xung đột vũ trang vẫn còn ở giai đoạn sơ khai nhưng chắc chắn
sẽ tăng tốc, kéo theo những lo ngại nghiêm trọng về nhân quyền.[76]
Tất cả các
bên liên quan nên quan tâm đến việc đảm bảo rằng trí tuệ nhân tạo có thể mang lại
lợi ích cho nhân loại mà không gây nguy hiểm cho nhân quyền, cả trong ngắn hạn và
tương lai. Xác định hiệu quả các rủi ro về nhân quyền liên quan đến trí tuệ
nhân tạo và hành động nhằm ngăn chặn, giảm thiểu và khắc phục các tác hại về
nhân quyền hiện tại và tương lai là điều cần thiết để hiện thực hóa mục tiêu
này. UNGP cung cấp khuôn khổ chính thức cho quá trình này.
Phần ghi nhận
Nhóm B-Tech của
UN bày tỏ lòng cảm ơn tới tất cả các chuyên gia và các bên liên quan đã cung cấp
thông tin đầu vào cho phần bổ sung của Dự án AI Sáng tạo này, đặc biệt là các đại
diện từ OECD, Sáng kiến Mạng Toàn cầu, BSR và Shift.
[1] Cade Metz, ‘Researchers Poke Holes in Safety Controls of ChatGPT and
Other Chatbots’, The New York Times, 27 July 2023, sec. Business, https://www.nytimes.com/2023/07/27/business/ai-chatgpt-safety-research.html
[2] Garrett Morrow et al., ‘The Emerging Science of Content Labeling:
Contextualizing Social Media Content Moderation’, SSRN Scholarly Paper
(Rochester, NY, 3 December 2020), https://doi.org/10.2139/ssrn.3742120.
p. 23
[3] Renate Mattar, ‘Germany’s Far Right Extremists Are Using AI Images To
Incite Hatred’, Worldcrunch, 7 April 2023, https://worldcrunch.com/tech-science/ai-images-extremists-germany
[4] Tatum Hunter, ‘AI Porn Is Easy to Make Now. For Women, That’s a
Nightmare.’, Washington Post, 14 February 2023, https://www.washingtonpost.com/technology/2023/02/13/ai-porn-deepfakes-women-consent/;
Karen Hao, ‘Deepfake Porn Is Ruining Women’s Lives. Now the Law May Finally Ban
It.’, MIT Technology Review (blog), 12 February 2021, https://www.technologyreview.com/2021/02/12/1018222/deepfake-revenge-porn-coming-ban/;
PR Newswire, ‘Generative AI Is the New Attack Vector for Platforms, According
to ActiveFence Threat Intelligence’, Yahoo Finance (blog), 23 May 2023, https://finance.yahoo.com/news/generative-ai-attack-vector-platforms-140000029.html.
[5] Guy Hedgecoe, ‘AI-Generated Naked Child Images Shock Spanish Town of
Almendralejo’, BBC News, 23 September 2023, sec. Europe, https://www.bbc.com/news/world-europe-66877718
[6] Laura Barron-Lopez, ‘Women face new sexual harassment with deepfake
pornography.’, PBS Newshour, 27 June 2023, https://www.pbs.org/newshour/show/women-face-new-sexual-harassment-with-deepfake-pornography
[7] Tiffany Hsu,
‘What Can You Do When A.I. Lies About You?’, The New York Times, 3 August 2023,
sec. Business, https:// www.nytimes.com/2023/08/03/business/media/ai-defamation-lies-accuracy.html;
Will
Bedingfield, ‘A Chatbot Encouraged Him to Kill the Queen: It’s Just the
Beginning’, Wired, 10 October 2023, https://www.wired.co.uk/article/chatbot-kill-the-queen-eliza-effect
[8] Chloe Xiang, ‘“He Would Still Be Here”: Man Dies by Suicide After
Talking with AI Chatbot, Widow Says’, Vice (blog), 30 March 2023, https://www.vice.com/en/article/pkadgm/man-dies-by-suicide-after-talking-with-ai-chatbot-widow-says
[9] Staff Writer, ‘NEDA Suspends AI Chatbot for Giving Harmful Eating
Disorder Advice | Psychiatrist.Com’, Psychiatrist.com, 5 June 2023, https://www.psychiatrist.com/news/neda-suspends-ai-chatbot-for-giving-harmful-eating-disorder-advice/
[10] Sarah Ferguson, ‘Fleeing Boko Haram, and Tricked into Sexual
Exploitation’, UNICEF USA (blog), 3 January 2020, https://www.unicefusa.org/stories/fleeing-boko-haram-and-tricked-sexual-exploitation.
See
also Committee on the Elimination of Discrimination against Women, ‘General
Recommendation No. 38 (2020) on Trafficking in Women and Girls in the Context
of Global Migration’ (UN Convention on the Elimination of All Forms of
Discrimination against Women, 20 November 2020), https://tbinternet.ohchr.org/_layouts/15/treatybodyexternal/Download.aspx?symbolno=CEDAW/C/GC/38&Lang=en
[11] Roberto Navigli, Simone Conia, and Björn Ross, ‘Biases in Large
Language Models: Origins, Inventory, and Discussion’, Journal of Data and
Information Quality 15, no. 2 (22 June 2023): 10:1-10:21, https://doi.org/10.1145/3597307
[12] Marie
Lamensch, ‘Generative AI Tools Are Perpetuating Harmful Gender Stereotypes’,
Centre for International Governance Innovation, 14 June 2023, https://www.cigionline.org/articles/generative-ai-tools-are-perpetuatingharmful-gender-stereotypes/;
Center
for Countering Digital Hate, ‘AI Image Tool Midjourney Is Being Used to
Generate Conspiratorial and Racist Images’, Research + Policy (CCDH, 11 August
2023), https://counterhate.com/research/ai-image-tool-midjourney-generate-racist-and-conspiratorial-images/#about
Johana
Bhuiyan, ‘WhatsApp’s AI Shows GunWielding Children When Prompted with
“Palestine”’, The Guardian, 3 November 2023, sec. Technology, https://www.theguardian.com/technology/2023/nov/02/whatsapps-ai-palestine-kids-gun-gaza-bias-israel
[13] Zachary Small,
‘Black Artists Say A.I. Shows Bias, With Algorithms Erasing Their History’, The
New York Times, 4 July 2023, sec. Arts, https://www.nytimes.com/2023/07/04/arts/design/black-artists-bias-ai.html
[14] Alexandre Magueresse,
Vincent Carles, and Evan Heetderks, ‘Low-Resource Languages: A Review of Past
Work and Future Challenges’ (arXiv, 12 June 2020), https://doi.org/10.48550/arXiv.2006.07264.
[15] Gabriel Nicholas and Aliya Bhatia, ‘Lost in Translation: Large
Language Models in Non-English Content Analysis’, Center for Democracy and
Technology (blog), 23 May 2023, https://cdt.org/insights/lost-in-translation-large-language-modelsin-non-english-content-analysis/
[16] Leonardo
Nicoletti and Dina Bass Technology + Equality, ‘Humans Are Biased. Generative
AI Is Even Worse’, Bloomberg. Com, 24 August 2023, https://www.bloomberg.com/graphics/2023-generative-ai-bias/;
Chloe
Xiang, ‘ Developers Created AI to Generate Police Sketches. Experts Are
Horrified’, Vice, 7 February 2023, https://www.vice.com/en/article/qjk745/ai-police-sketches
[17] UNESCO, ‘Guidance for Generative AI in Education and Research’, July
2023, https://unesdoc.unesco.org/ark:/48223/pf0000386693
, p. 14
[18] Lauren Leffer,
‘Your Personal Information Is Probably Being Used to Train Generative AI
Models’, Scientific American, 19 October 2023, https://www.scientificamerican.com/article/your-personal-information-is-probably-being-used-to-traingenerative-ai-models/;
Benj
Edwards, ‘Artist Finds Private Medical Record Photos in Popular AI Training
Data Set’, Ars Technica, 21 September 2022, https://arstechnica.com/information-technology/2022/09/artist-finds-private-medicalrecord-photos-in-popular-ai-training-data-set/.
[19] Tim Biggs, ‘Stolen information? The mystery over how tech giants train
their AI chatbots’, Sydney Morning Herald, 1 August 2023, https://www.smh.com.au/technology/lawsuits-highlight-opaque-methods-big-tech-firms-use-to-train-aichatbots-20230719-p5dpks.html
[20] Nicholas Carlini et al., ‘Extracting Training Data from Diffusion
Models’ (arXiv, 30 January 2023), https://doi.org/10.48550/arXiv.2301.13188
[21] HM Government, ‘Safety and Security Risks of Generative Artificial
Intelligence to 2025’ (UK: GOV.UK, 25 October 2023), https://assets.publishing.service.gov.uk/media/653932db80884d0013f71b15/generative-ai-safety-securityrisks-2025-annex-b.pdf.
[22] Ben Jacobs, ‘POV: How Generative AI Is Changing Surveillance
Capitalism’, Fast Company, 28 March 2023, https:// www.fastcompany.com/90871955/how-generative-ai-is-changing-surveillance-capitalism.
[23] Emanuel
Maiberg, ‘It Takes 2 Clicks to Get From “Deep Tom Cruise” to Vile Deepfake
Porn’, Vice (blog), 17 May 2022, https://www.vice.com/en/article/qjb7b7/ethical-deepfakes-deep-tom-cruise-ai-generated-porn.
[24] Ashish Jaiman,
‘The Danger of Deepfakes’, The Hindu, 1 January 2023, sec. Technology, https://www.thehindu.com/sci-tech/technology/the-danger-of-deepfakes/article66327991.ece;
Joseph
Cox, ‘AI-Generated Voice Firm Clamps Down After 4chan Makes Celebrity Voices
for Abuse’, Vice (blog), 30 January 2023, https://www.vice.com/en/article/dy7mww/ai-voice-firm-4chan-celebrity-voices-emma-watson-joe-rogan-elevenlabs.
[25] Vishwam Sankaran, ‘ChatGPT Cooks up Fake Sexual Harassment Scandal and
Names Real Law Professor as Accused’, Independent, 6 April 2023, https://www.independent.co.uk/tech/chatgpt-sexual-harassment-law-professor-b2315160.html
[26] Kai Nicol-Schwarz and Tim Smith, ‘Why Harry Potter Is the Copyright
Timebomb under Generative AI Models’, Sifted, 18 May 2023, https://sifted.eu/articles/generative-ai-copyright/.
[27] Gil Appel, Juliana Neelbauer, and David A. Schweidel, ‘Generative AI
Has an Intellectual Property Problem’, Harvard Business Review, 7 April 2023, https://hbr.org/2023/04/generative-ai-has-an-intellectual-property-problem
[28] Gil Appel,
Juliana Neelbauer, and David A. Schweidel, ‘Generative AI Has an Intellectual
Property Problem’, Harvard Business Review, 7 April 2023, https://hbr.org/2023/04/generative-ai-has-an-intellectual-property-problem; https://news.artnet.com/art-world/class-action-lawsuit-ai-generators-deviantart-midjourney-stable-diffusion-2246770
[29] Kali Hays, ‘OpenAI Now Tries to Hide That ChatGPT Was Trained on
Copyrighted Books, Including J.K. Rowling’s Harry Potter Series’, Business
Insider, 15 August 2023, https://www.businessinsider.com/openais-latest-chatgpt-version-hidestraining-on-copyrighted-material-2023-8.
[30] Emily Flitter and Stacy Cowley, ‘Voice Deepfakes Are Coming for Your
Bank Balance’, The New York Times, 30 August 2023, sec. Business, https://www.nytimes.com/2023/08/30/business/voice-deepfakes-bank-scams.html.
[31] U.N. Doc. A/73/348; see also Evelyn Aswad, ‘Losing the Freedom to Be
Human’, SSRN Scholarly Paper (Rochester, NY, 29 February 2020), https://papers.ssrn.com/abstract=3635701
[32] Giovanni Spitale, Nikola Biller-Andorno, and Federico Germani, ‘AI
Model GPT-3 (Dis)Informs Us Better than Humans’, Science Advances 9, no. 26 (28
June 2023): eadh1850, https://doi.org/10.1126/sciadv.adh1850.
[33] Christopher Mims, ‘Help! My Political Beliefs Were Altered by a
Chatbot!’, Wall Street Journal, 13 May 2023, sec. Tech, https://www.wsj.com/articles/chatgpt-bard-bing-ai-political-beliefs-151a0fe4
[34] See, for
example: Pranshu Verma and Will Oremus, ‘AI Voice Clones Mimic Politicians and
Celebrities, Reshaping Reality’, Washington Post, 16 October 2023, https://www.washingtonpost.com/technology/2023/10/13/ai-voicecloning-deepfakes/;
Microsoft
Threat Intelligence, ‘Sophistication, Scope, and Scale: Digital Threats from
East Asia Increase in Breadth and Effectiveness’, September 2023),
https://query.prod.cms.rt.microsoft.com/cms/api/am/binary/ RW1aFyW ;
Alexandra
Ulmer et al., ‘Deepfaking It: America’s 2024 Election Collides with AI Boom’,
Reuters, 31 May 2023, sec. United States, https://www.reuters.com/world/us/deepfaking-it-americas-2024-election-collides-with-aiboom-2023-05-30/.
[35] Evan Selinger, ‘We Don’t Want Chatbots to Come off as People’, Boston
Globe, 8 May 2023, https://www.bostonglobe.com/2023/05/08/opinion/google-bard-chatgpt-dishonest-anthropomorphism-evan-selinger/
[36] Gray Drenik, ‘AI Tools Like ChatGPT Will Fail Without Data Integrity -
Here’s Why’, Forbes, 30 May 2023, https://www.forbes.com/sites/garydrenik/2023/05/30/ai-tools-like-chatgpt-will-fail-without-data-integrity--heres-why/
[37] Ben Jacobs,
‘POV: How Generative AI Is Changing Surveillance Capitalism’, Fast Company, 28
March 2023, https://www.fastcompany.com/90871955/how-generative-ai-is-changing-surveillance-capitalism;
Marcello
Ienca, ‘On Artificial Intelligence and Manipulation’, Topoi 42 (20 June 2023):
1–10, https://doi.org/10.1007/s11245-023-09940-3.
[38] Irene Khan, The Special Rapporteur of the Promotion and Protection of
the Rights to Freedom of Opinion and Expression, ‘Disinformation and Freedom of
Opinion and Expression’ (Geneva: Human Rights Council, 13 April 2021), https://documents-dds-ny.un.org/doc/UNDOC/GEN/G21/085/64/PDF/G2108564.pdf?OpenElement
[39] Summer Lopez, Nadine Farid Johnson, and Liz Woolery, ‘PEN America
Report on Artificial Intelligence and Free Expression’, PEN America (blog), 31
July 2023, https://pen.org/report/speech-in-the-machine/
[40] Lucina Di Meco and Saskia Brechenmacher, ‘Tackling Online Abuse and
Disinformation Targeting Women in Politics’, Carnegie Endowment for International
Peace, 20 November 2020, https://carnegieendowment.org/2020/11/30/tackling-online-abuse-and-disinformation-targeting-women-in-politics-pub-83331
[41] Christine
Hauser, ‘Right-Wing Operatives Plead Guilty in Voter-Suppression Scheme’, The
New York Times, 25 October 2022, sec. U.S., https://www.nytimes.com/2022/10/25/us/politics/ohio-robocalls-wohl-burkman-guilty.html.; Philip Marcelo, ‘FACT FOCUS: Fake
Image of Pentagon Explosion Briefly Sends Jitters through Stock Market’,
APNews, 23 May 2023, AP Fact Check edition, https://apnews.com/article/pentagon-explosion-misinformation-stock-market-ai-96f534c7
90872fde67012ee81b5ed6a4; Lubna Jerar Naqvi, ‘Beware of AI-Generated Propaganda amid Political
Unrest’, Geo News, 11 May 2023, Opinion edition, https://www.geo.tv/latest/486758-beware-of-ai-generated-propaganda-amidpolitical-unrest
[42] Alena Gorbacheva, ‘No Language Left Behind: How to Bridge the Rapidly
Evolving AI Language Gap’, UNDP, 6 October 2023, https://www.undp.org/kazakhstan/blog/no-language-left-behind-how-bridge-rapidly-evolving-ai-language-gap;
Kira Schacht, ‘Bridging the AI Language Gap in Africa and Beyond’, DW, 29 July
2023, https://www.dw.com/en/bridging-the-ai-language-gap-in-africa-and-beyond/a-66331763
[43] Gabriel R.
Sanchez and Keesha Middlemass, ‘Misinformation Is Eroding the Public’s
Confidence in Democracy’, Brookings, 26 July 2022, https://www.brookings.edu/articles/misinformation-is-eroding-the-publics-confidencein-democracy/;
Lilian
Olivia, ‘Disinformation was rife in Kenya’s 2022 election’, Africa at LSE, 5
January 2023, https://blogs.lse.ac.uk/africaatlse/2023/01/05/disinformation-was-rife-in-kenyas-2022-election/;
Camille
Elemia, ‘In the Philippines, a Flourishing Ecosystem for Political Lies’, New
York Times, 6 May 2022, https://www.nytimes.com/2022/05/06/business/philippines-election-disinformation.html
[44] Nita Bhalla,
‘Online Disinformation Stokes Tensions as Kenya Elections Near’, Reuters, 27
June 2022, https://www.reuters.com/article/idUSL4N2Y22HF/
[45] Tiffany Hsu,
Stuart A. Thompson and Steven Lee Myers, ‘Elections and Disinformation Are
Colliding Like Never Before in 2024’, New York Times, 9 January 2024, https://www.nytimes.com/2024/01/09/business/media/electiondisinformation-2024.html
[46] Ali Swenson, ‘Here’s how ChatGPT Maker OpenAI Plans to Deter Election
Misinformation in 2024’, Associated Press, 17 January 2024, https://apnews.com/article/ai-election-misinformation-voting-chatgpt-altman-openai-0e6b22568e90733a
e1f89a0d54d64139
[47] Tiffany Hsu, Stuart A. Thompson and Steven Lee Myers, ‘Elections and
Disinformation Are Colliding Like Never Before in 2024’, New York Times, 9
January 2024, https://www.nytimes.com/2024/01/09/business/media/electiondisinformation-2024.html
[48] Daniel
Zuidijk, ‘Deepfakes in Slovakia Preview How AI Will Change the Face of
Elections’, Bloomberg, 4 October 2023, https://www.bloomberg.com/news/newsletters/2023-10-04/deepfakes-in-slovakia-review-how-ai-will-change-theface-of-elections ;
‘Deepfakes
deceive voters from India to Indonesia before elections’, Economic Times, 3
January 2024, https://economictimes.indiatimes.com/news/elections/lok-sabha/india/deepfakes-deceive-voters-from-india-to-indonesiabefore-elections/articleshow/106504149.cms
[49] Alex Thompson, ‘First look: RNC Slams Biden in AI-Generated Ad’,
Axios, 25 April 2023, https://www.axios.com/2023/04/25/rnc-slams-biden-re-election-bid-ai-generated-ad
[50] Archis Chowdhury, ‘Deepfake Videos Ahead Of Bangladesh Polls Should
Have Us All Concerned’, Decode, 11 January 2024, https://www.boomlive.in/decode/deepfake-elections-disinformation-bangladesh-india-us-uk-indonesia-24087
[51] Marina E. Franco, ‘AI and Weakened Electoral Body Threaten Mexican
Presidential Elections’, Axios, 26 October 2023, https://www.axios.com/2023/10/26/mexico-elections-amlo-artificial-intelligence
[52] ‘ChatGPT and
Co: Are AI-driven search engines a threat to democratic elections?’, Algorithm
Watch, 5 October 2023, https://algorithmwatch.org/en/bing-chat-election-2023/; David Gilbert, ‘Microsoft’s AI
Chatbot Replies to Election Questions With Conspiracies, Fake Scandals, and
Lies | WIRED’, Wired, 15 December 2023, https://www.wired.com/story/microsoft-ai-copilot-chatbot-election-conspiracy/
[53] Nathan E. Sanders and Bruce Schneier, ‘How ChatGPT Hijacks Democracy’,
New York Times, 15 January 2023, https:// www.nytimes.com/2023/01/15/opinion/ai-chatgpt-lobbying-democracy.html
[54] Pranshu Verma and Gerrit De Vynck, ‘ChatGPT Took Their Jobs. Now They
Walk Dogs and Fix Air Conditioners.’, Washington Post, 5 June 2023, https://www.washingtonpost.com/technology/2023/06/02/ai-taking-jobs/
[55] Brody Ford, ‘IBM to Pause Hiring for Jobs That AI Could Do’,
Bloomberg.Com, 1 May 2023, https://www.bloomberg.com/news/articles/2023-05-01/ibm-to-pause-hiring-for-back-office-jobs-that-ai-could-kill.
[56] Pawel Gmyrek, Janine Berg, and David Bescond, ‘Generative AI and Jobs:
A Global Analysis of Potential Effects on Job Quantity and Quality’, Working
Paper (ILO, 21 August 2023), https://www.ilo.org/wcmsp5/groups/public/---dgreports/---inst/documents/publication/wcms_890761.pdf
.
[57] Mark McNeilly, ‘Will Generative AI Disproportionately Affect the Jobs
of Women?’, Kenaninstitute.Unc.Edu (blog), 18 April 2023, https://kenaninstitute.unc.edu/kenan-insight/will-generative-ai-disproportionately-affect-the-jobs-of-women/
[58] Viola Zhou, ‘AI is already taking video game illustrators’ jobs in
China’, Rest of World, 11 April 2023, https://restofworld.org/2023/ai-image-china-video-game-layoffs/
[59] Jake Coyle,
‘In Hollywood writers’ battle against AI, humans win (for now)’, AP News, 27
September 2023, https://apnews.com/article/hollywood-ai-strike-wga-artificial-intelligence-39ab72582c3a15f77510c9c30a45ffc8.
[60] Kate Wells, ‘Can a Chatbot Help People with Eating Disorders as Well
as Another Human?’, NPR, 24 May 2023, sec. National, https://www.npr.org/2023/05/24/1177847298/can-a-chatbot-help-people-with-eating-disorders-as-well-asanother-human.
[61] Kieran Snyder, ‘We Asked ChatGPT to Write Performance Reviews and They
Are Wildly Sexist (and Racist)’, Fast Company, 2 March 2023, https://www.fastcompany.com/90844066/chatgpt-write-performance-reviews-sexist-and-racist
[62] Karen Hao and Deepa Seetharaman, ‘Cleaning Up ChatGPT Takes Heavy Toll
on Human Workers’, Wall Street Journal, 24 July 2023, sec. Tech, https://www.wsj.com/articles/chatgpt-openai-content-abusive-sexually-explicit-harassmentkenya-workers-on-human-workers-cf191483
; Partnership on AI, ‘Responsible Sourcing of Data Enrichment Services’, 17
June 2021, https://partnershiponai.org/wp-content/uploads/2021/08/PAI-Responsible-Sourcing-of-Data-EnrichmentServices.pdf#page=27
[63] Ravi Sen and The Conversation, ‘After 25 years of growth for the $68
billion SEO industry, here’s how Google and other tech firms could render it
extinct with AI’, Fortune, 21 October 2023, https://fortune.com/2023/10/21/how-generativeai-could-change-google-search-68-billion-seo-industry/
[64] Kashmir Hill, ‘Can You Hide a Child’s Face From A.I.?’, The New York
Times, 14 October 2023, sec. Technology, https://www.nytimes.com/2023/10/14/technology/artifical-intelligence-children-privacy-internet.html.
[65] Geoffrey A. Fowler, ‘AI Is Acting “pro-Anorexia” and Tech Companies
Aren’t Stopping It’, The Washington Post, 7 August 2023, https://www.washingtonpost.com/technology/2023/08/07/ai-eating-disorders-thinspo-anorexia-bulimia/
[66] Tech Transparency Project, ‘“Thinstagram”: Instagram’s Algorithm Fuels
Eating Disorder Epidemic’, Dangerous by Design (blog), 8 December 2021, https://www.techtransparencyproject.org/articles/thinstagram-instagrams-algorithm-fuelseating-disorder-epidemic.
[67] Connie Dimsdale, ‘Teenagers Turning to AI Chatbots for Sexual Health
Advice as Sex Education Put under Review’, Inews.Co.Uk, 11 August 2023, https://inews.co.uk/news/teenagers-ai-chatbots-sexual-health-advice-inaccurateinformation-2534555
[68] Christopher Mims, ‘Help! My Political Beliefs Were Altered by a
Chatbot!’, Wall Street Journal, 13 May 2023, sec. Tech, https://www.wsj.com/articles/chatgpt-bard-bing-ai-political-beliefs-151a0fe4
[69] Roseann O’Reilly Runte, ‘Young People Tell Us They Need Help
Identifying Misinformation’, Scientific American, 16 August 2023, https://www.scientificamerican.com/article/young-people-tell-us-they-need-help-identifying-misinformation/
[70] David De Cremer, Nicola Morini Bianzino, Ben Falk, ‘How Generative AI
Could Disrupt Creative Work’, Harvard Business Review, 13 April 2023, https://hbr.org/2023/04/how-generative-ai-could-disrupt-creative-work
[71] Irene Solaiman, ‘The Gradient of Generative AI Release: Methods and
Considerations’ (arXiv, 5 February 2023), http://arxiv.org/abs/2302.04844. p. 3
[72] Irene Solaiman et al., Evaluating the Social Impact of Generative AI
Systems in Systems and Society, 2023. p. 6.
https://www.researchgate.net/publication/371490141_Evaluating_the_Social_Impact_of_Generative_AI_Systems_in_Systems_and_Society
[73] Yuen Pin Yeap, ‘Generative AI is the Next Tactical Cyber Weapon for
Threat Actors’, The Guardian, 16 October 2023, https://www.forbes.com/sites/forbestechcouncil/2023/10/16/generative-ai-is-the-next-tactical-cyber-weapon-for-threatactors/
[74] Yohei Nakajima, ‘Task-Driven Autonomous Agent Utilizing GPT-4,
Pinecone, and LangChain for Diverse Applications – Yohei Nakajima’, 28 March
2023, https://yoheinakajima.com/task-driven-autonomous-agent-utilizing-gpt-4-pineconeand-langchain-for-diverse-applications/.
[75] Will Knight,
‘It Costs Just $400 to Build an AI Disinformation Machine’, Wired, 29 August
2023, https://www.wired.com/story/400-dollars-to-build-an-ai-disinformation-machine/
[76] BHRRC, ‘The
Application of Generative AI to Warfare Raises Human Rights Concerns’, Business
& Human Rights Resource Centre, 2 May 2023, https://www.business-humanrights.org/en/latest-news/the-application-of-generative-ai-in-warfareraises-human-rights-concerns/ ;
Eric
Schewe, ‘As Militaries Adopt AI, Hype Becomes a Weapon’, Jstor, 4 August 2023, https://daily.jstor.org/as-militaries-adopt-ai-hype-becomes-a-weapon/;
Katrina
Manson, ‘The US Military Is Taking Generative AI Out for a Spin’, Bloomberg, 5
July 2023, https://www.bloomberg.com/news/newsletters/2023-07-05/the-us-military-is-taking-generative-ai-out-for-a-spin.
Nhận xét
Đăng nhận xét