Báo cáo về Phân loại rủi ro nhân quyền liên quan đến AI tạo sinh

Phân loại rủi ro nhân quyền liên quan đến AI tạo sinh

Văn phòng Cao ủy Nhân quyền Liên hợp quốc

 

Giới thiệu về tài liệu này

Là phần bổ sung cho tài liệu nền tảng của Dự án B-Tech của Liên hợp quốc về AI tạo ra, tài liệu này tìm hiểu các rủi ro về nhân quyền bắt nguồn từ việc phát triển, triển khai và sử dụng công nghệ AI tạo ra. Việc thiết lập một hệ thống phân loại dựa trên quyền như vậy là rất quan trọng để hiểu cách áp dụng các Nguyên tắc Hướng dẫn của Liên hợp quốc về Kinh doanh và Nhân quyền (UNGP) trong việc giải quyết các rủi ro về nhân quyền liên quan đến AI tạo sinh (generative AI). Phân loại này nhằm chỉ ra rằng những mối nguy hiểm đáng kể nhất đối với con người liên quan đến AI tạo sinh trên thực tế cũng ảnh hưởng đến các quyền con người đã được quốc tế thống nhất.

VÌ SAO LẠI LÀ NHÂN QUYỀN?

Hầu hết các thảo luận xung quanh AI tạo sinh đã thừa nhận rộng rãi rằng một số cách mà công nghệ này có thể tác động tiêu cực đến con người và xã hội, mặc dù không phải tất cả. Tuy nhiên, cuộc thảo luận này thường không tập trung vào việc những tác động này có thể làm suy yếu các quyền con người được đảm bảo bởi luật nhân quyền quốc tế như thế nào. Có thể nhận thấy một số lợi ích hợp lý và thực tiễn khi xác định chính xác mức độ AI có thể tạo ra tác động tiêu cực đến nhân quyền, cụ thể là:

– Nhân quyền quốc tế hiện là bộ tiêu chuẩn đạo đức và pháp lý duy nhất được quốc tế đồng ý được thể hiện chung như là trung tâm để sống một cuộc sống có phẩm giá và sự tôn trọng.

– Việc tập trung vào nhân quyền củng cố rằng các nghĩa vụ hiện tại của Nhà nước trong việc bảo vệ nhân quyền và trách nhiệm tôn trọng nhân quyền của doanh nghiệp có thể và nên được viện dẫn để quản lý AI tạo ra.

– Nhân quyền tập trung vào các kết quả tích cực và tiêu cực đạt đến ngưỡng ảnh hưởng đến phẩm giá cơ bản của cá nhân.

– Việc tập trung vào nhân quyền mang lại cho các công ty, cơ quan quản lý và xã hội dân sự một danh sách tác động được thiết lập rõ ràng để đánh giá và giải quyết các tác động của hệ thống AI tạo ra.

– Nhân quyền được kết nối với trải nghiệm sống của các bên liên quan có nguy cơ gặp rủi ro và cũng cụ thể hơn các thuật ngữ thường được sử dụng để mô tả các đặc điểm của hệ thống AI tạo sinh, bao gồm '"an toàn", "công bằng", "có trách nhiệm" hoặc "đạo đức".

– Có các phong trào và tổ chức xã hội quốc tế, khu vực và quốc gia đã được giao nhiệm vụ thúc đẩy và bảo vệ nhân quyền, nhiều trong số đó cũng đang tích cực tham gia vào việc xây dựng ý nghĩa của một số quyền nhất định trong bối cảnh mới.

Do đó, mục tiêu của tài liệu này là cung cấp một khuôn khổ để hiểu các tác động xã hội tiêu cực liên quan đến các sản phẩm và dịch vụ AI mang tính tổng hợp thường tăng đến mức gây tổn hại đến các quyền con người được quốc tế bảo vệ. Đáng chú ý, những tác động nhân quyền này thường tăng cao đối với các nhóm hoặc nhóm dân cư vốn có nguy cơ cao trở nên dễ bị tổn thương hoặc bị gạt ra ngoài lề xã hội, bao gồm cả phụ nữ và trẻ em gái. Hơn nữa, trong một số trường hợp, bối cảnh xã hội và địa lý nơi những tác động này xảy ra có thể làm tăng mức độ rủi ro, ví dụ như khi xảy ra tác động bất lợi về quyền trong bối cảnh miền Nam toàn cầu.

CÁC RỦI RO VỀ NHÂN QUYỀN

Phân loại này xem xét các quyền con người có thể bị ảnh hưởng tiêu cực bởi AI tạo sinh, cung cấp các ví dụ thực tế cho từng quyền. Những quyền này, được liệt kê dưới đây theo thứ tự xuất hiện trong Tuyên ngôn Quốc tế Nhân quyền (UDHR), là:

– Không bị tổn hại về thể chất và tâm lý

– Quyền bình đẳng trước pháp luật và được bảo vệ chống phân biệt đối xử

– Quyền riêng tư

– Quyền sở hữu tài sản

– Tự do tư tưởng, tôn giáo, lương tâm và quan điểm

– Tự do ngôn luận và tiếp cận thông tin

– Quyền tham gia vào các vấn đề công cộng

– Quyền được làm việc và kiếm sống

– Quyền của trẻ em

– Quyền về văn hóa, nghệ thuật và khoa học

Dưới đây, hệ thống phân loại lần lượt xem xét các quyền này, cung cấp cho từng quyền: bản tóm tắt lý do quyền gặp rủi ro khi phát triển, triển khai và/hoặc sử dụng AI tạo sinh; một danh sách chọn lọc các điều khoản quan trọng của luật nhân quyền quốc tế liên quan đến quyền này; và danh sách các ví dụ thực tế trong đó AI có thể tạo ra có thể đe dọa quyền theo một cách nào đó, bao gồm cả các nguồn.

Mặc dù hệ thống phân loại không cố gắng liệt kê một cách toàn diện tất cả các rủi ro tiềm ẩn đối với nhân quyền, nhưng nó đưa ra việc kiểm tra một số cách chính mà nhân quyền hiện đang gặp rủi ro do AI tạo sinh gây nên. Nhiều rủi ro về nhân quyền trong số này có thể liên quan đến các dạng AI trước đây, nhưng rủi ro có thể, hoặc trong một số trường hợp, đã bị thay đổi hoặc trở nên trầm trọng hơn do các đặc điểm của AI tạo sinh. Trong một số trường hợp khác, AI tạo sinh đã gây nên những mối nguy hại ở các khía cạnh hoàn toàn mới.

Như đã lưu ý trong kết luận của phân loại, AI tạo sinh đang phát triển nhanh chóng. Khi các trường hợp sử dụng công nghệ này mở rộng và khi bản thân công nghệ được hiểu rõ hơn, những rủi ro liên quan đến nhân quyền chắc chắn sẽ xuất hiện. Việc phân loại chủ yếu liên quan đến những rủi ro và tác động về nhân quyền3 hiện đang được quan sát hoặc có thể sẽ sớm xảy ra. Những rủi ro tiềm ẩn khác vẫn đang xuất hiện và trong tương lai có thể là một trong những mối đe dọa nghiêm trọng nhất đối với nhân quyền liên quan đến AI. Trong mọi trường hợp, hệ thống phân loại này tập trung vào cách AI tạo sinh– chứ không phải AI nói chung – gây ra rủi ro cho nhân quyền.

Cuối cùng, cũng cần lưu ý rằng quyền con người có mối liên hệ và phụ thuộc lẫn nhau. Một trường hợp sử dụng duy nhất của AI tạo thế hệ có thể đặt ra rủi ro cho một số quyền cơ bản, tùy thuộc vào các yếu tố như địa lý nơi các hệ thống đó được triển khai, nhóm chủ sở hữu quyền nào bị ảnh hưởng và hệ thống AI tạo thế hệ được sử dụng trong lĩnh vực nào.

Tự do khỏi bị tổn hại về thể chất và tâm lý

TÓM TẮT

Quyền về an toàn cơ thể, được đảm bảo trong khuôn khổ nhân quyền quốc tế, có thể gặp rủi ro từ các hệ thống AI tạo ra theo nhiều cách khác nhau. Trong một số trường hợp, thông tin sai lệch vô tình bắt nguồn từ AI có thể tạo ra có thể dẫn đến tác động tiêu cực đến các quyền này, ví dụ: gây tổn hại cho sức khỏe tâm thần của cá nhân. Ở một số trường hợp khác khác, kết quả đầu ra của mô hình AI tạo sinh có thể được sử dụng để cố ý đe dọa an ninh thể chất hoặc tâm lý hoặc quyền tự do cá nhân của cá nhân. Mặc dù một số nhà phát triển AI sáng tạo đã ban hành các biện pháp bảo vệ để ngăn các mô hình xuất ra thông tin đó, nhưng một số biện pháp bảo vệ vẫn dễ dàng bị phá vỡ.[1] Hơn nữa, khi các mô hình dựa vào việc ghi nhãn dữ liệu của con người để đánh giá tính chất bất hợp pháp hoặc có hại của các kết quả đầu ra, nếu có sự chậm trễ trong việc điều chỉnh các kết quả đầu ra đó sẽ tạo điều kiện cho các tác động xấu có cơ hội phát triển.[2]

CÁC QUY ĐỊNH NHÂN QUYỀN LIÊN QUAN

– “Ai cũng có quyền được sống, tự do, và an toàn thân thể” (Điều 3 của UDHR)

– “Không ai có thể bị tra tấn hay bị những hình phạt hoặc những đối xử tàn ác, vô nhân đạo, làm hạ thấp nhân phẩm” (Điều 5 của UDHR)

– “Mọi cá nhân đều có quyền được hưởng trạng thái sức khỏe thể chất và tinh thần tốt nhất có thể” (Điều 16 ACHPR)[i]

– “Không ai có thể bị bắt giữ, giam cầm hay lưu đầy một cách độc đoán” (Điều 9 ICCPR)

VÍ DỤ VỀ RỦI RO

– Thông tin sai lệch được tạo ra bằng AI có thể được sử dụng theo những cách có nguy cơ kích động bạo lực thể xác có mục tiêu chống lại các cá nhân hoặc nhóm cụ thể,[3] hoặc gây bất ổn cho xã hội theo những cách có nguy cơ kích động bạo lực lan rộng, lẻ tẻ hoặc ngẫu nhiên (chẳng hạn như liên quan đến các cuộc tấn công khủng bố hư cấu, đảo chính hoặc gian lận bầu cử).

– Trình tạo hình ảnh và video có thể được sử dụng để tạo nội dung khiêu dâm không có sự đồng thuận, bao gồm các nội dung có tính dục về các cá nhân có thật, không có sự đồng ý (“nội dung khiêu dâm deepfake”) và/hoặc mô tả hình ảnh tình dục mang tính bạo lực.[4] Những trình tạo như vậy cũng có thể được sử dụng để tạo ra tài liệu lạm dụng tình dục trẻ em.[5] Trong mọi trường hợp, phụ nữ và trẻ em gái đều có nguy cơ cao hơn.[6]

– Các hệ thống AI tạo sinh có thể bị ảo giác (hallucinate) và tạo ra thông tin sai lệch. Một số thông tin sai lệch như vậy có thể có nguy cơ kích động bạo lực thể chất đối với các cá nhân hoặc nhóm cụ thể hoặc khiến họ bị tước đoạt tự do một cách tùy tiện.[7] Trong các trường hợp khác, thông tin sai lệch về AI có thể khuyến khích người dùng thực hiện các hành động gây nguy hiểm cho sức khỏe thể chất hoặc tâm lý của họ,[8] đặc biệt là những người thuộc nhóm dễ bị tổn thương (ví dụ, những người đang gặp khủng hoảng về sức khỏe tâm thần).[9]

– AI sáng tạo có thể được sử dụng để tạo điều kiện hoặc hỗ trợ hoạt động buôn người bằng cách tạo ra nội dung dùng để lôi kéo hoặc dụ dỗ các cá nhân vào tình huống bị bóc lột. Giống như trường hợp buôn người nói chung, phụ nữ và trẻ em có nguy cơ cao nhất.[10]

Quyền bình đẳng trước pháp luật và được bảo vệ chống phân biệt đối xử

TÓM TẮT

Khuôn khổ nhân quyền quốc tế trao cho tất cả mọi người quyền được bảo vệ bình đẳng chống lại sự phân biệt đối xử. Kết quả đầu ra của các mô hình AI tạo sinh được biết là phản ánh những thành kiến về văn hóa hiện diện trong các tập dữ liệu đào tạo và trên internet nói chung.[11] Điều này có thể dẫn đến việc phổ biến các định kiến có hại dựa trên chủng tộc, màu da, giới tính, ngôn ngữ, tôn giáo, chính trị, quan điểm, nguồn gốc quốc gia hoặc xã hội, tài sản, hoặc các vấn đề khác về thành phần xuất thân hoặc địa vị xã hội, làm khuếch đại sự phân biệt đối xử và bất bình đẳng kinh tế xã hội hiện có.

CÁC QUY ĐỊNH NHÂN QUYỀN LIÊN QUAN

– “Ai cũng được hưởng những quyền tự do ghi trong bản Tuyên Ngôn này không phân biệt đối xử vì bất cứ lý do nào, như chủng tộc, màu da, nam nữ, ngôn ngữ, tôn giáo, chính kiến hay quan niệm, nguồn gốc dân tộc hay xã hội, tài sản, dòng dõi hay bất cứ thân trạng nào khác" (UDHR Điều 2)

– “Mọi người đều bình đẳng trước pháp luật và được pháp luật bảo vệ bình đẳng không kỳ thị. Mọi người đều được bảo vệ chống lại mọi kỳ thị hay xúi giục kỳ thị trái với Tuyên Ngôn này” (Điều 7 của UDHR)

VÍ DỤ VỀ RỦI RO

– Các mô hình AI sáng tạo có thể tạo ra những kết quả xúc phạm hoặc có hại liên quan đến những người có bản sắc bị gạt ra ngoài lề xã hội, khuếch đại những định kiến sai lầm và có hại, đồng thời tạo điều kiện cho nhiều hình thức phân biệt đối xử khác nhau trong toàn xã hội.[12]

– Đầu ra của các mô hình AI tạo sinh thường đại diện quá mức cho các nhóm bá quyền về văn hóa (da trắng, phương Tây, nam giới, dị tính, chuyển giới, những người được hưởng lợi từ di sản của chủ nghĩa thực dân, v.v.), điều này có thể dẫn đến việc trình bày sai hoặc trình bày không đúng mức về các nhóm khác trên quy mô lớn. Điều này có thể củng cố những định kiến bất lợi, làm trầm trọng thêm những thành kiến và phân biệt đối xử, đồng thời hạn chế khả năng của các nhóm hoặc cá nhân bị gạt ra ngoài lề xã hội trong việc thực hiện quyền kiểm soát việc thể hiện danh tính của họ trên các phương tiện truyền thông và trên internet.[13]

– “Các ngôn ngữ có nguồn tài nguyên thấp” thường được thể hiện không đúng mức trong các bộ dữ liệu đào tạo AI tạo sinh,[14] dẫn đến hiệu suất kém của hệ thống AI tạo sinh dành cho những người nói các ngôn ngữ này.[15] Hiệu suất kém của AI tạo sinh đối với người dùng từ một số nền tảng ngôn ngữ, địa lý và văn hóa nhất định có thể tự nó tạo thành một hình thức phân biệt đối xử và đe dọa mở rộng khoảng cách kỹ thuật số ngày càng tăng giữa các quốc gia có nguồn lực cao và nguồn lực thấp.

– Giống như các công nghệ AI khác được sử dụng để ra quyết định tự động (ví dụ: công nghệ dự đoán chính sách hoặc dự đoán tái phạm), các mô hình AI tạo sinh được sử dụng cho mục đích ra quyết định có thể tạo điều kiện cho sự phân biệt đối xử.[16]

– Sự tập trung phát triển AI toàn cầu ở Bắc bán cầu nhằm mục đích “[tăng tốc] việc tạo và xử lý dữ liệu theo cấp số nhân” ở các quốc gia này, làm trầm trọng thêm các vấn đề “nghèo dữ liệu” hiện có ở những nơi khác trên thế giới.[17] Việc thiếu khả năng tiếp cận dữ liệu có tác động tiêu cực tác động tới sự phát triển kinh tế và do đó đối với nhiều quyền cơ bản khác nhau.

Quyền riêng tư

TÓM TẮT

AI sáng tạo đặt ra một số lo ngại liên quan đến quyền riêng tư. Các phiên bản AI trước đây cũng có liên quan đến những lo ngại này, nhưng một số đặc điểm kỹ thuật của các mô hình AI tạo ra cho thấy nguy cơ cao hơn trong việc tạo điều kiện cho các tác động bất lợi đối với các quyền này. Chúng bao gồm số lượng lớn dữ liệu đào tạo được lấy từ Internet bằng một số mô hình ngôn ngữ lớn; sự phụ thuộc của các mô hình ngôn ngữ lớn vào việc nhập dữ liệu từ người dùng cá nhân dưới dạng lời nhắc văn bản; và khả năng của hệ thống AI tạo sinh nhằm tạo ra nội dung có hại, sai lệch và thuyết phục có thể được sử dụng để tấn công trực tiếp vào quyền riêng tư, danh dự hoặc danh tiếng của một cá nhân.

CÁC QUY ĐỊNH NHÂN QUYỀN LIÊN QUAN

– “Không ai phải chịu sự can thiệp một cách tùy tiện vào đời sống riêng tư, gia đình, nhà ở hoặc thư tín của họ cũng như bị xúc phạm đến danh dự và uy tín của họ” (UDHR Điều 12)

VÍ DỤ VỀ RỦI RO

– Dữ liệu đào tạo được các mô hình AI tổng hợp sử dụng có thể chứa thông tin nhận dạng cá nhân và các loại thông tin nhạy cảm hoặc riêng tư khác theo những cách liên quan đến những lo ngại mới về quyền riêng tư.[18] Khả năng của người dùng trong việc đưa ra sự đồng ý sáng suốt đối với việc thu thập, sử dụng và lưu trữ dữ liệu của họ để đào tạo các mô hình AI tạo sinh có thể bị tổn hại do sử dụng các bộ dữ liệu được quét trên web.[19]

– Người dùng có thể nhập thông tin riêng tư hoặc nhạy cảm vào lời nhắc mô hình AI tạo sinh mà không hiểu đầy đủ về cách dữ liệu của họ sẽ được thu thập, lưu trữ và sử dụng. Dữ liệu này thường được sử dụng để đào tạo lại các mô hình[20] và không rõ thông tin nhạy cảm như vậy có thể xuất hiện lại ở mức độ nào trong các kết quả đầu ra của mô hình tiếp theo cho những người dùng khác.

– Việc thu thập, lưu trữ và xử lý dữ liệu trên quy mô lớn (bao gồm cả dữ liệu cá nhân nhạy cảm) liên quan đến các mô hình AI tổng hợp có thể làm tăng các lỗ hổng và khả năng người dùng gặp phải các vụ vi phạm dữ liệu, hack và các vi phạm bảo mật khác. Theo báo cáo, một số mô hình AI tạo sinh có thể bị tấn công để trích xuất các bản sao của dữ liệu mà chúng được đào tạo thông qua “đảo ngược mô hình”.[21]

– Dữ liệu được thu thập bởi các mô hình AI tổng hợp từ người dùng có thể được tổng hợp và bán mà không có sự đồng ý rõ ràng của người dùng.

– Các công cụ AI sáng tạo giúp giảm đáng kể khó khăn trong việc phân tích và tóm tắt khối dữ liệu văn bản khổng lồ, bao gồm cả nội dung trên mạng xã hội. Trong một số bối cảnh, điều này có thể tăng cường các hình thức giám sát hiện có của Nhà nước có nguy cơ vi phạm quyền riêng tư trên quy mô lớn.

– Khả năng của AI tổng hợp để tạo các quảng cáo được nhắm mục tiêu riêng lẻ trên quy mô lớn có thể khuyến khích các doanh nghiệp thu thập nhiều thông tin cá nhân hơn từ người dùng, gây ra những tác động tiêu cực đến quyền riêng tư.[22]

– Nhìn rộng ra, việc tạo ra thông tin sai lệch, mang tính chất phỉ báng liên quan đến các cá nhân cụ thể sẽ cấu thành hành vi tấn công vào danh dự và danh tiếng của một người.[23] Điều này có thể xuất phát từ việc cố ý sử dụng các mô hình AI tạo sinh để tạo và phổ biến thông tin phỉ báng, sai lệch[24] hoặc do sự ảo giác một cách vô ý của các mô hình AI tạo ra.[25]

Quyền sở hữu tài sản

TÓM TẮT

Việc sử dụng số lượng lớn dữ liệu của các mô hình AI sáng tạo có thể gây ra những tác động bất lợi đến quyền sở hữu tài sản trí tuệ và đạo đức của cá nhân. Quy trình đào tạo cho một số mô hình AI sáng tạo có thể liên quan đến việc sử dụng trái phép các tác phẩm được bảo vệ, ảnh hưởng xấu đến quyền sở hữu tài sản của tác giả gốc của những tác phẩm đó. Khả năng của các hệ thống AI tạo ra nội dung bắt chước các tác phẩm hiện có của con người cũng đe dọa đến quyền sở hữu của tác giả gốc.

CÁC QUY ĐỊNH NHÂN QUYỀN LIÊN QUAN

– “Ai cũng có quyền sở hữu, hoặc riêng tư hoặc hùn hiệp với người khác […] Không ai có thể bị tước đoạt tài sản một cách độc đoán.” (UDHR Điều 17)

– “Ai cũng được bảo vệ bởi những quyền lợi tinh thần và vật chất phát sinh từ những sản phẩm khoa học, văn học hay nghệ thuật của mình.” (UDHR Điều 27 (2))

VÍ DỤ VỀ RỦI RO

– Một số mô hình AI tạo sinh được đào tạo trên số lượng lớn văn bản được lấy từ internet, có thể bao gồm các nguồn được bảo hộ về mặt sở hữu trí tuệ.[26] Bản thân điều này có thể tạo ra tác động bất lợi đến quyền sở hữu tài sản của cá nhân và bảo vệ lợi ích vật chất nơi các tác giả gốc chưa đồng ý cho tác phẩm của mình được sử dụng cho mục đích đào tạo.[27]

– Người dùng có thể sử dụng các mô hình AI tổng hợp được đào tạo về dữ liệu có bản quyền để tạo ra nội dung giống với tác phẩm gốc của người khác theo những cách tác động tiêu cực đến quyền sở hữu của tác giả gốc.[28]

– Trong một số trường hợp, các mô hình AI sáng tạo có thể sao chép trực tiếp tác phẩm gốc của người khác, tác động tiêu cực hơn nữa đến quyền sở hữu của tác giả gốc.[29]

– Các mô hình AI sáng tạo có thể được sử dụng để tạo ra nội dung hiệu quả hơn cho các cuộc tấn công an ninh mạng như thư rác, lừa đảo hoặc vi phạm dữ liệu, dẫn đến mất mát hoặc hư hỏng tài sản.[30]

Tự do tư tưởng, tôn giáo, lương tâm và quan điểm

TÓM TẮT

Quyền tự chủ trong việc tự do hình thành và giữ quan điểm là yếu tố cốt lõi của khuôn khổ nhân quyền quốc tế. Các chuyên gia nhân quyền trước đây đã cảnh báo rằng công nghệ AI có nguy cơ “vô hình [thay thế, thao túng hoặc can thiệp] vào khả năng các cá nhân hình thành và giữ quan điểm của mình…”[31] AI sáng tạo có thể gây ra rủi ro cao hơn trong lĩnh vực này. Nhiều người dùng sẽ khó phân biệt nội dung internet nào là tổng hợp và đâu là nội dung thật – một nghiên cứu gần đây cho thấy rằng con người thực sự có nhiều khả năng tin vào thông tin sai lệch khi nó được tạo bằng các công cụ AI tổng hợp.[32] Hơn nữa, nhiều hệ thống AI tổng hợp có liên quan đến sự tương tác trực tiếp với người dùng được thiết kế để bắt chước các hình thức giao tiếp của con người. Khi được ban hành mà không có sự đồng ý thích hợp, những đặc điểm này cho thấy nguy cơ cao là suy nghĩ và ý kiến của các cá nhân có thể bị ảnh hưởng quá mức và vô hình bởi AI tạo ra.

CÁC QUY ĐỊNH NHÂN QUYỀN LIÊN QUAN

– “Ai cũng có quyền tự do tư tưởng, tự do lương tâm và tự do tôn giáo”, “Không ai có thể bị ép buộc làm phương hại đến quyền tự do có hoặc theo một tôn giáo hay tín ngưỡng mà mình lựa chọn.” (UDHR Điều 18, ICCPR 18(2))[ii]

– “Ai cũng có quyền tự do quan niệm và tự do phát biểu quan điểm; quyền này bao gồm quyền không bị ai can thiệp vì những quan niệm của mình, và quyền tìm kiếm, tiếp nhận cùng phổ biến tin tức và ý kiến bằng mọi phương tiện truyền thông không kể biên giới quốc gia” (UDHR Điều 19)

– “Điều 18 [ICCPR] không cho phép bất kỳ hạn chế nào đối với quyền tự do tư tưởng và lương tâm.” (Bình luận chung của Ủy ban Nhân quyền số 22, đoạn 3)

VÍ DỤ VỀ RỦI RO

– Việc phổ biến trực tuyến thông tin sai lệch được tạo ra bằng AI tổng hợp có thể đe dọa quyền tự do suy nghĩ và quan điểm của người dùng internet khi gặp phải thông tin đó mà không biết rằng thông tin đó là sai sự thật hoặc có nguồn gốc tổng hợp.[33] Điều này có thể bao gồm, ví dụ, thao túng thông tin cá nhân niềm tin về chính trị hoặc khoa học thông qua việc truyền bá thông tin sai lệch có mục tiêu được cố tình tạo ra bằng các công cụ AI tạo ra hoặc thông tin sai lệch do các mô hình AI tạo ra gây ảo giác.[34]

– Việc người dùng phụ thuộc vào các hệ thống AI có tính sáng tạo để hình thành ý tưởng của họ cũng có thể gây rủi ro cho quyền tự do tư tưởng và quan điểm. Khi mọi người sử dụng các công cụ AI tạo sinh để phát triển và thể hiện suy nghĩ của mình kết hợp thông tin không chính xác, sai lệch hoặc không đầy đủ do hệ thống AI tạo sinh đưa ra vào ý tưởng của họ, thì suy nghĩ của người dùng có thể bị thao túng theo những cách không lường trước được.

– Một số hệ thống AI tổng hợp liên quan đến tương tác trực tiếp với người dùng được thiết kế để bắt chước các kiểu giao tiếp của con người nhiều hơn những hệ thống khác.[35] Khi các hệ thống như vậy không làm cho người dùng nhận thức đầy đủ rằng họ không giao tiếp với con người, khả năng của người dùng là tự do đưa ra ý kiến thao tác có thể bị vi phạm. Ngay cả khi người dùng biết về mặt trí tuệ rằng họ đang tương tác với một cỗ máy, một hệ thống AI được tạo ra được nhân cách hóa một cách có chủ ý để bắt chước con người vẫn có thể vi phạm các quyền tự do suy nghĩ và quan điểm này.

– Khi các hệ thống AI tổng hợp không thông báo cho người dùng về những hạn chế về hiệu suất hoặc dữ liệu đào tạo của hệ thống, điều này cũng có thể tác động tiêu cực đến quyền tự do quan điểm. Ví dụ: khi người dùng không biết rằng hệ thống chỉ được đào tạo về thông tin cho đến một ngày nhất định hoặc được đào tạo để ưu tiên các quan điểm nhất định, họ có thể vô tình hình thành ý kiến dựa trên kết quả đầu ra của mô hình không chính xác và lỗi thời.[36]

– Khả năng của AI tạo ra các quảng cáo nhắm mục tiêu riêng lẻ trên quy mô lớn có thể mang lại cho doanh nghiệp mức độ ảnh hưởng chưa từng có đối với người dùng internet, theo những cách có thể đe dọa quyền tự do tư tưởng và quan điểm.[37]

Tự do ngôn luận và tiếp cận thông tin

TÓM TẮT

Quyền tự do biểu đạt vừa là một quyền cơ bản của con người vừa là cốt lõi của nhiều quyền khác. Hơn nữa, quyền tiếp cận thông tin đáng tin cậy là một yếu tố then chốt của quyền tự do ngôn luận.[38] Khi các cá nhân bị ngăn cản truy cập thông tin thực tế hoặc không thể xác định thông tin nào là thực tế và thông tin nào không, thì quyền tự do ngôn luận sẽ bị vi phạm. AI sáng tạo – bao gồm khả năng nhanh chóng tạo ra nội dung sai lệch có vẻ do con người tạo ra và có thẩm quyền trên quy mô lớn – có thể gây rủi ro cho quyền tự do ngôn luận theo nhiều cách khác nhau.

CÁC QUY ĐỊNH NHÂN QUYỀN LIÊN QUAN

– “Ai cũng có quyền tự do quan niệm và tự do phát biểu quan điểm; quyền này bao gồm quyền không bị ai can thiệp vì những quan niệm của mình, và quyền tìm kiếm, tiếp nhận cùng phổ biến tin tức và ý kiến bằng mọi phương tiện truyền thông không kể biên giới quốc gia” (UDHR Điều 19)

– “Tự do thông tin đòi hỏi một yếu tố không thể thiếu là sự sẵn lòng và khả năng sử dụng các đặc quyền của mình mà không bị lạm dụng. Nó đòi hỏi như một kỷ luật cơ bản, nghĩa vụ đạo đức là tìm kiếm sự thật mà không thành kiến và truyền bá kiến thức mà không có mục đích xấu” (UNGA Nghị quyết 59 năm 1949)

VÍ DỤ VỀ RỦI RO

– AI sáng tạo có thể bị các tác nhân độc hại lợi dụng để tạo ra nội dung sai sự thật nhưng thuyết phục, được vũ khí hóa theo những cách có chủ đích nhằm đe dọa quyền tự do ngôn luận – ví dụ: việc sử dụng thông tin sai lệch do AI tạo ra để quấy rối các nhà báo hoặc đối thủ chính trị để tự kiểm duyệt.[39] Nữ các nhân vật của công chúng đặc biệt có nguy cơ bị quấy rối trực tuyến có chủ đích.[40]

– Sự phổ biến của nội dung internet không chính xác được tạo bằng các công cụ AI tổng hợp – cho dù là thông tin sai lệch hay thông tin sai lệch – có thể làm mất đi hoặc che khuất thông tin trực tuyến dựa trên bằng chứng và được kiểm tra thực tế, đe dọa rộng rãi đến quyền truy cập thông tin của các cá nhân và cộng đồng. Hậu quả của việc này, bao gồm sự xói mòn lòng tin của công chúng đối với các phương tiện truyền thông và các quy trình chính trị,[41] có thể tác động tiêu cực đến nhiều quyền khác cũng như quản trị dân chủ ở phạm vi rộng hơn.

– Hiệu suất kém của các hệ thống AI tạo sinh dành cho người nói các ngôn ngữ có nguồn tài nguyên thấp đe dọa quyền tự do thể hiện bản thân của các cộng đồng này bằng cách sử dụng AI tạo sinh,[42] bao gồm cả việc hạn chế khả năng truy cập thông tin của họ thông qua các hệ thống AI tạo sinh.

– Xu hướng đầu ra của mô hình AI tạo sinh đại diện quá mức cho các nhóm bá quyền về mặt văn hóa có thể dẫn đến việc không tạo ra được sự đa dạng về quan điểm và thông tin của và về các nhóm thiểu số hoặc bị áp bức trong lịch sử. Kết quả là sự thiếu hụt thông tin này trên không gian trực tuyến gây ra rủi ro cho quyền truy cập thông tin một cách rộng rãi.

– Việc kiểm duyệt quá mức đối với đầu ra AI có tính sáng tạo có thể dẫn đến những hạn chế đối với quyền tự do ngôn luận (ví dụ: cấm người dùng tạo ra các kết quả đầu ra đồ họa có thể nhằm mục đích biểu đạt nghệ thuật hoặc châm biếm hoặc hạn chế tiềm năng của AI có tính sáng tạo để hỗ trợ người khuyết tật trong giao tiếp suy nghĩ hoặc cảm xúc của họ).

Quyền tham gia vào các vấn đề công cộng

TÓM TẮT

Các quy trình bầu cử gần đây đã bị tác động tiêu cực do sự xói mòn niềm tin của công chúng vào các quy trình chính trị và thể chế dân chủ, một phần được thúc đẩy bởi các chiến dịch có mục tiêu sử dụng thông tin xuyên tạc và thông tin sai lệch trên nhiều kênh truyền thông.[43] Việc lan truyền thông tin xuyên tạc có tổ chức, kết hợp với các yếu tố khác, có thể gây tiêu cực tác động đến quyền của các cá nhân và cộng đồng trong việc tự do tham gia vào các vấn đề công theo nhiều cách khác nhau.[44] Đáng lo ngại là nội dung mang tính tổng quát do AI tạo ra, thường dựa trên các tuyên bố của các chủ thể chính trị, sẽ làm tăng thêm rủi ro này. Nội dung sai sự thật nhưng thuyết phục từ các nền tảng AI sáng tạo, bao gồm cả ở dạng deepfake, giờ đây dễ sản xuất hơn trên quy mô lớn và có thể làm suy yếu quyền tham gia vào các vấn đề công cộng trên toàn thế giới.[45] Trong khi một số nhà phát triển AI sáng tạo đã công bố kế hoạch đưa ra các biện pháp bảo vệ , chẳng hạn như nỗ lực ngăn chặn các chatbot AI mạo danh các ứng cử viên hoặc quan chức chính phủ thực sự hoặc tạo hình mờ cho hình ảnh AI,[46] đây là một lĩnh vực cần quan tâm xét về quy mô và tốc độ mà nội dung đó có thể lan truyền cũng như khó khăn trong việc kiểm tra thông tin này.[47]

CÁC QUY ĐỊNH NHÂN QUYỀN LIÊN QUAN

– “1. Ai cũng có quyền tham gia chính quyền của quốc gia mình, hoặc trực tiếp hoặc qua các đại biểu do mình tự do lựa chọn.

2. Ai cũng có quyền bình đẳng tham gia công vụ trong nước.

3. Ý nguyện của quốc dân phải được coi là căn bản của mọi quyền lực quốc gia; ý nguyện này phải được biểu lộ qua những cuộc tuyển cử có định kỳ và trung thực, theo phương thức phổ thông đầu phiếu kín, hay theo các thủ tục tuyển cử tự do tương tự.” (UDHR Điều 21)

– “Mọi công dân, không có bất kỳ sự phân biệt nào như đã nêu ở điều 2 và không có bất kỳ sự hạn chế bất hợp lý nào, đều có quyền và cơ hội để:

a) Tham gia điều hành các công việc xã hội một cách trực tiếp hoặc thông qua những đại diện do họ tự do lựa chọn;

b) Bầu cử và ứng cử trong các cuộc bầu cử định kỳ chân thực, bằng phổ thông đầu phiếu, bình đẳng và bỏ phiếu kín, nhằm đảm bảo cho cử tri được tự do bày tỏ ý nguyện của mình;

c) Được tiếp cận với các dịch vụ công cộng ở đất nước mình trên cơ sở bình đẳng.” (Điều 25 ICCPR)

VÍ DỤ VỀ RỦI RO

– Các tác phẩm deepfake về âm thanh và/hoặc video AI mang tính sáng tạo có mô tả sai sự thật về các nhân vật chính trị hoặc mô tả các sự kiện hư cấu có ý nghĩa chính trị có thể tác động tiêu cực đến quyền bầu cử tự do của các cá nhân cho các ứng cử viên hoặc mục đích mà họ lựa chọn. Ví dụ: các cá nhân tham gia vào các mô tả deepfake tinh vi về các chính trị gia đưa ra các tuyên bố hư cấu có thể vô tình khiến niềm tin chính trị của họ bị thay đổi dựa trên sự giả dối, cản trở khả năng thực hiện quyền tham gia vào các vấn đề công cộng và có khả năng ảnh hưởng đến việc đảm bảo cho một cuộc bầu cử thể hiện quyền tự do. thể hiện ý chí của cử tri.[48] Ngay cả khi các tác phẩm deepfake không được trình bày rõ ràng dưới dạng mô tả xác thực, thuyết phục về các nhân vật chính trị có thật có thể khiến cử tri bối rối và tác động tiêu cực đến quyền của họ.[49]

– Deepfakes cũng có thể được sử dụng để ngăn chặn lượng cử tri đi bỏ phiếu. Ví dụ: mô tả giả mạo về các quan chức bầu cử có thể phổ biến thông tin sai lệch nhưng thuyết phục về giờ bỏ phiếu, địa điểm, tư cách hợp lệ, v.v. Điều này có thể khiến cử tri bị tước quyền bầu cử. Ngoài ra, các hành vi deepfake về các ứng cử viên chính trị có thể gợi ý sai lệch rằng các ứng cử viên đang rút lui khỏi cuộc bầu cử.[50]

– AI sáng tạo cũng có thể gây rủi ro cho quá trình bầu cử và an ninh. Ví dụ: deepfake mạo danh các quan chức bầu cử có thể cho phép các tác nhân độc hại có quyền truy cập vào thông tin quản lý hoặc bảo mật bầu cử nhạy cảm.

– Nội dung văn bản được tạo bằng AI tổng hợp, chẳng hạn như dưới dạng các tuyên bố hoặc thông cáo báo chí có vẻ gian lận nhưng có vẻ có thẩm quyền từ các cơ quan chính phủ hoặc các chiến dịch chính trị được sản xuất trên quy mô lớn, cũng có thể ảnh hưởng đến quyền tham gia vào các vấn đề công cộng.[51]

– Khi các cá nhân hình thành quan điểm chính trị dựa trên các cuộc trò chuyện với chatbot, xu hướng tạo ảo giác thông tin sai lệch của AI có thể dẫn đến niềm tin chính trị của cử tri bị thao túng thông qua thông tin không chính xác từ những gì họ tin là nguồn có thẩm quyền.[52]

– Chatbots và các nền tảng AI tổng hợp khác có thể được sử dụng để tự động hóa quá trình tác động đến dư luận chính trị trực tuyến thông qua số lượng lớn bình luận trên internet và các bài đăng trên mạng xã hội liên quan đến chính trị. Mặc dù bản thân điều này có thể không gây ra rủi ro đối với nhân quyền, nhưng trong tay những kẻ độc hại, những công cụ này có thể tạo điều kiện thuận lợi đáng kể cho việc phát động các chiến dịch có mục tiêu nhằm phá hoại các tiến trình chính trị tự do theo những cách đe dọa đến quyền tham gia vào các vấn đề công.[53]

Quyền làm việc và kiếm sống

TÓM TẮT

AI sáng tạo có tiềm năng thay đổi mạnh mẽ thị trường kinh tế và lao động cũng như thực tiễn công việc hàng ngày. Mặc dù một số thay đổi trong cách làm việc của con người là không thể tránh khỏi do tiến bộ công nghệ, nhưng AI có khả năng tạo ra có thể có tác động đáng kể về kinh tế và lao động, ảnh hưởng đến quyền làm việc và kiếm sống của cá nhân theo một số cách. Hơn nữa, việc triển khai AI sáng tạo trong môi trường lao động sẽ ảnh hưởng khác nhau đến các nhóm chủ bản quyền và loại công việc khác nhau.

CÁC QUY ĐỊNH NHÂN QUYỀN LIÊN QUAN

– “Mọi người đều có quyền làm việc, tự do lựa chọn việc làm, được hưởng những điều kiện làm việc công bằng và thuận lợi và được bảo vệ khỏi nạn thất nghiệp.” (UDHR Điều 23 (1))

– “Các quốc gia thành viên Công ước này công nhận quyền làm việc, trong đó bao gồm quyền của mọi người có cơ hội kiếm sống bằng công việc mà họ tự do lựa chọn hoặc chấp nhận, và sẽ thực hiện các bước thích hợp để bảo vệ quyền này” (Điều ICESCR . 6 (1))

– Các quốc gia thành viên Công ước này công nhận quyền của mọi người được hưởng những điều kiện làm việc công bằng và thuận lợi” (ICESCR Điều 7)

– “Mỗi Thành viên phê chuẩn Công ước này phải thúc đẩy cải tiến liên tục an toàn và vệ sinh lao động để ngăn ngừa thương tích, bệnh tật và tử vong nghề nghiệp bằng cách phát triển, với sự tham vấn của các tổ chức đại diện nhất của người sử dụng lao động và người lao động, một chính sách quốc gia, hệ thống quốc gia và chương trình quốc gia.” (Công ước về Khung xúc tiến của ILO về An toàn và Sức khỏe Lao động Điều 2)

– “Người lao động và người sử dụng lao động, không có sự phân biệt nào, có quyền thành lập và chỉ tuân theo các quy định của tổ chức liên quan, tham gia các tổ chức do họ lựa chọn mà không cần có sự cho phép trước.” (Công ước về Tự do Hiệp hội và Bảo vệ Quyền Tổ chức của ILO, Điều 2)

– “Mỗi Thành viên mà Công ước này có hiệu lực cam kết tuyên bố và theo đuổi chính sách quốc gia nhằm thúc đẩy, bằng các phương pháp phù hợp với điều kiện và thực tiễn quốc gia, sự bình đẳng về cơ hội và đối xử trong việc làm và nghề nghiệp, nhằm loại bỏ bất kỳ sự phân biệt đối xử về vấn đề đó.” (Công ước về phân biệt đối xử (Việc làm và nghề nghiệp) của ILO Điều 2)

VÍ DỤ VỀ RỦI RO

– Các công ty có thể thay thế người lao động bằng các công cụ AI sáng tạo[54] hoặc tạm dừng tuyển dụng những vai trò có thể được thực hiện bởi AI sáng tạo trong tương lai.[55] Sự dịch chuyển này, đặc biệt là khi mạng lưới an toàn xã hội yếu hoặc không tồn tại, có thể đe dọa quyền được bảo vệ khỏi thất nghiệp của cá nhân. Các nhóm lao động có nhiều khả năng bị thay thế nhất, chẳng hạn như nhân viên văn thư,[56] có thể dẫn đến tình trạng mất việc làm không cân xứng giữa các nhóm cụ thể, những người đại diện nhiều trong các ngành nghề này, bao gồm cả phụ nữ.[57]

– Sự sáng tạo của con người có nguy cơ cao bị thay thế bởi AI sáng tạo. Các nghệ sĩ con người trong các lĩnh vực khác nhau đã được thay thế bằng nội dung sáng tạo do AI tạo ra[58] và một số nghệ sĩ đã tham gia vào thương lượng tập thể để đáp lại.[59]

– Người lao động tham gia tranh chấp lao động với người sử dụng lao động có thể có nguy cơ cao bị thay thế bằng các công cụ AI mang tính sáng tạo, ảnh hưởng đến quyền của người lao động được lập hội và bảo vệ khỏi thất nghiệp.[60]

– Các mô hình AI sáng tạo có thể được các công ty sử dụng để theo dõi hiệu suất của nhân viên, gây lo ngại về tính chính xác của các công cụ đó. Ví dụ: chatbot được sử dụng để đánh giá hiệu suất của nhân viên có thể đưa ra những thành kiến dựa trên giới tính, chủng tộc hoặc độ tuổi.[61]

– Việc phát triển một số hệ thống AI tạo sinh đòi hỏi việc ghi nhãn dữ liệu phải được thực hiện bởi con người. Một số nhà phát triển AI có tính sáng tạo được cho là đã giao công việc này cho người lao động ở các quốc gia có thu nhập thấp, những người đã mô tả điều kiện làm việc bị bóc lột.[62]

– Chatbots và các công cụ tìm kiếm tổng hợp có sự hỗ trợ của AI khác có thể hướng người dùng ra khỏi các trang web nguồn nơi lưu trữ thông tin. Kết quả là lưu lượng truy cập trang web giảm có thể khiến các doanh nghiệp trực tuyến vừa và nhỏ mất doanh thu quảng cáo.[63]

Quyền của trẻ em

TÓM TẮT

Trẻ em đặc biệt dễ bị tổn hại về quyền con người liên quan đến trí tuệ nhân tạo. Trẻ em ít có khả năng phân biệt nội dung tổng hợp với nội dung chân thực, xác định thông tin không chính xác và hiểu rằng chúng đang tương tác với một cỗ máy chứ không phải với con người. Những động lực này khiến trẻ em có nguy cơ cao bị ảnh hưởng tiêu cực đến nhân quyền.

CÁC QUY ĐỊNH NHÂN QUYỀN LIÊN QUAN

– “Việc làm mẹ và tuổi thơ có quyền được chăm sóc và giúp đỡ đặc biệt. Mọi trẻ em dù sinh ra trong giá thú hay ngoài giá thú đều được hưởng sự bảo trợ xã hội như nhau” (UDHR Điều 25)

– “Các Quốc gia thành viên phải đảm bảo ở mức độ tối đa có thể được sự tồn tại và phát triển của trẻ em” (Điều 6 (2) của CRC)

– “Các quốc gia thành viên thừa nhận chức năng quan trọng của các phương tiện thông tin đại chúng và phải đảm bảo rằng trẻ em có thể tiếp cận thông tin và tài liệu từ nhiều nguồn quốc gia và quốc tế khác nhau, đặc biệt là những nguồn nhằm thúc đẩy phúc lợi xã hội, tinh thần và đạo đức của trẻ -sức khỏe thể chất và tinh thần.” (Điều 17 CRC)

– “Các quốc gia thành viên phải thực hiện mọi biện pháp lập pháp, hành chính, xã hội và giáo dục thích hợp để bảo vệ trẻ em khỏi mọi hình thức bạo lực về thể chất hoặc tinh thần, gây thương tích hoặc lạm dụng, bỏ mặc hoặc lơ là đối xử, ngược đãi hoặc bóc lột, bao gồm cả lạm dụng tình dục” (Điều CRC. 19 (1))

VÍ DỤ VỀ RỦI RO

– Các mô hình AI sáng tạo hoặc ứng dụng truyền thông xã hội sử dụng AI sáng tạo có thể thiếu các giới hạn phù hợp với lứa tuổi, cho phép người dùng chưa đủ tuổi chia sẻ thông tin cá nhân[64] hoặc tiếp xúc với nội dung không phù hợp hoặc gây tổn hại cho lứa tuổi của họ (ví dụ: nội dung trực tuyến liên quan đến việc tự làm hại bản thân hoặc rối loạn về ăn uống,[65] đã được chứng minh là đặc biệt gây tổn hại cho các bé gái trong lịch sử[66]).

– Người dùng chưa đủ tuổi có nhiều khả năng chuyển sang sử dụng các chatbot AI tổng hợp để được tư vấn về các chủ đề như sức khỏe tình dục; lời khuyên được đưa ra có thể chứa thông tin sai lệch khiến trẻ em gặp nguy hiểm.[67]

– Các mô hình AI sáng tạo có thể ảnh hưởng hoặc hạn chế sự phát triển nhận thức hoặc hành vi của trẻ khi phụ thuộc quá nhiều vào kết quả đầu ra của các mô hình này, chẳng hạn như khi trẻ sử dụng các công cụ này để thay thế cho việc học trong môi trường giáo dục. Những trường hợp sử dụng này cũng có thể khiến trẻ vô tình áp dụng những hiểu biết sai lệch hoặc sai lệch về các sự kiện lịch sử, xu hướng xã hội, v.v.[68]

– Các mô hình AI sáng tạo có thể tạo ra những con đường mới để trẻ em tiếp xúc với nội dung có hại. Trẻ em có thể dễ bị ảnh hưởng bởi thông tin sai lệch, lừa đảo hoặc tấn công lừa đảo hơn do các mô hình AI tạo ra.[69]

Quyền văn hóa, nghệ thuật và khoa học

TÓM TẮT

Mọi người đều có quyền bình đẳng trong việc tham gia văn hóa, thưởng thức nghệ thuật và hưởng lợi từ tiến bộ khoa học. Các quyền này có thể bị AI tạo ra gặp rủi ro theo nhiều cách khác nhau. Xu hướng của các mô hình AI tạo sinh đại diện quá mức cho một số nền văn hóa nhất định, gây bất lợi cho các nền văn hóa khác trong cả quá trình phát triển và kết quả đầu ra của chúng khiến các hệ thống này khó tiếp cận và hữu ích hơn đối với các nhóm dân cư đa dạng và người nói các ngôn ngữ có nguồn lực thấp. Hơn nữa, khả năng tạo ra các sản phẩm AI có tính sáng tạo để thay thế nghệ thuật do con người tạo ra cho thấy những tác động tiêu cực hơn nữa đối với việc thưởng thức văn hóa và nghệ thuật đúng đắn.

CÁC QUY ĐỊNH NHÂN QUYỀN LIÊN QUAN

– “Mọi người đều có quyền tự do tham gia vào đời sống văn hóa của cộng đồng, thưởng thức nghệ thuật và chia sẻ tiến bộ khoa học cũng như lợi ích của nó” (UDHR Điều 27)

– “Mọi người đều có quyền được hưởng những lợi ích của tiến bộ khoa học và ứng dụng của nó” (ICESCR Điều 15)

VÍ DỤ VỀ RỦI RO

– Khi nội dung nghệ thuật tổng hợp do AI tạo ra lấn át nghệ thuật do con người tạo ra trong không gian trong và ngoài mạng, điều này có tác động tiêu cực rộng rãi đến quyền thưởng thức nghệ thuật và văn hóa.[70]

– Hiệu suất kém của các hệ thống AI tạo sinh dành cho những người nói các ngôn ngữ có nguồn tài nguyên thấp đe dọa quyền của những cá nhân này được chia sẻ tiến bộ khoa học mà AI tạo sinh đại diện.

– Sự tập trung phát triển AI tạo sinh ở Hoa Kỳ và Châu Âu[71] đặc biệt là trong các bối cảnh phát triển nguồn đóng– có thể làm cho các hệ thống AI tạo sinh ít có khả năng tạo ra các kết quả đầu ra thể hiện chính xác các giá trị văn hóa, niềm tin và thực tiễn của người dùng từ các khu vực địa lý khác nhau.[72] Điều này có thể cản trở các cá nhân từ các nền văn hóa này sử dụng và hưởng lợi từ công nghệ AI sáng tạo, cản trở quyền tham gia vào văn hóa của họ.

Phần kết luận

AI sáng tạo là một công nghệ có tác động trên phạm vi rộng. Chắc chắn rằng một số tác động này sẽ có lợi cho cả năng suất kinh tế và việc nâng cao nhân quyền. Ví dụ, AI tạo sinh, nếu được phát triển, triển khai và sử dụng một cách có trách nhiệm, sẽ có khả năng cải thiện khả năng tiếp cận thông tin, cho phép tự do ngôn luận và có khả năng nâng cao các quyền về sức khỏe, giáo dục, thủ tục tố tụng hợp pháp và khả năng tiếp cận các dịch vụ công, cùng nhiều quyền khác.

Tuy nhiên, như được trình bày chi tiết trong phân loại này, AI tạo sinh cũng đang làm tăng rủi ro đối với nhân quyền. Trong một số trường hợp, AI sáng tạo đang thay đổi phạm vi rủi ro về nhân quyền vốn có liên quan đến một số công nghệ kỹ thuật số. Ví dụ: thông tin sai lệch và thông tin sai lệch trực tuyến được biết là gây rủi ro cho quyền tự do biểu đạt và khả năng tạo ra nội dung sai lệch, thuyết phục của AI trên quy mô lớn đang làm trầm trọng thêm những rủi ro đó. Tương tự như vậy, việc các doanh nghiệp thu thập quá nhiều dữ liệu người dùng là một rủi ro rõ ràng đối với quyền riêng tư. Khi sự phát triển của AI tạo sinh chuyển dịch các phương thức tạo nội dung số khỏi các chương trình soạn thảo văn bản thông thường, và khi dữ liệu được chuyển từ máy cá nhân sang chatbot và các nền tảng khác cho phép doanh nghiệp truy cập vào dữ liệu được nhập thông qua cuộc hội thoại của người dùng, kết quả sẽ dẫn đến bước nhảy vọt về số lượng trong lượng dữ liệu người dùng do các công ty nắm giữ đang làm tăng thêm mối lo ngại về quyền riêng tư hiện có.

Trong một bối cảnh khác, các đặc điểm riêng của AI tạo sinh đang dẫn đến những rủi ro về nhân quyền không chỉ khác nhau về phạm vi mà còn về bản chất. Ví dụ, sự đan xen giữa cơ quan con người với AI có khả năng tạo ra khi con người ngày càng dựa vào những công cụ này để phát triển và bày tỏ suy nghĩ của mình sẽ gây ra rủi ro đối với quyền tự do quan điểm và suy nghĩ theo những cách mới lạ mà mới chỉ bắt đầu được quan sát. Mặt khác, AI sáng tạo đang ngày càng có năng lực lập trình máy tính mạnh mẽ, một khả năng vốn trước đây chủ yếu nằm trong các tổ chức lớn. Việc các chủ thể với ý đồ xấu khả năng sử dụng truy cập vào các tính năng này đang mở ra những rủi ro mới đối với nhân quyền, bao gồm quyền riêng tư và quyền tài sản.[73]

Cuối cùng, trí tuệ nhân tạo có thể tạo ra những rủi ro bổ sung đối với nhân quyền sẽ xuất hiện trong trung hạn. Khi công nghệ biến đổi này phát triển và khi các trường hợp sử dụng của công ty và chính phủ phát triển cùng với nó, chúng ta có thể dự đoán rằng nhân quyền sẽ bị đe dọa theo những cách mới. Ví dụ, các chuyên gia được B-Tech tư vấn đã nêu lên mối lo ngại về khả năng kết hợp nhiều mô hình AI tổng hợp thành các hệ thống lớn hơn duy nhất có khả năng tự động tạo ra đầu vào và đầu ra;[74] tác động của những hệ thống như vậy đối với việc phổ biến một lượng lớn thông tin sai lệch một cách tự động đang là vấn đề đáng lo ngại.[75] Việc áp dụng AI vào xung đột vũ trang vẫn còn ở giai đoạn sơ khai nhưng chắc chắn sẽ tăng tốc, kéo theo những lo ngại nghiêm trọng về nhân quyền.[76]

Tất cả các bên liên quan nên quan tâm đến việc đảm bảo rằng trí tuệ nhân tạo có thể mang lại lợi ích cho nhân loại mà không gây nguy hiểm cho nhân quyền, cả trong ngắn hạn và tương lai. Xác định hiệu quả các rủi ro về nhân quyền liên quan đến trí tuệ nhân tạo và hành động nhằm ngăn chặn, giảm thiểu và khắc phục các tác hại về nhân quyền hiện tại và tương lai là điều cần thiết để hiện thực hóa mục tiêu này. UNGP cung cấp khuôn khổ chính thức cho quá trình này.

Phần ghi nhận

Nhóm B-Tech của UN bày tỏ lòng cảm ơn tới tất cả các chuyên gia và các bên liên quan đã cung cấp thông tin đầu vào cho phần bổ sung của Dự án AI Sáng tạo này, đặc biệt là các đại diện từ OECD, Sáng kiến Mạng Toàn cầu, BSR và Shift.



[1] Cade Metz, ‘Researchers Poke Holes in Safety Controls of ChatGPT and Other Chatbots’, The New York Times, 27 July 2023, sec. Business, https://www.nytimes.com/2023/07/27/business/ai-chatgpt-safety-research.html

[2] Garrett Morrow et al., ‘The Emerging Science of Content Labeling: Contextualizing Social Media Content Moderation’, SSRN Scholarly Paper (Rochester, NY, 3 December 2020), https://doi.org/10.2139/ssrn.3742120. p. 23

[3] Renate Mattar, ‘Germany’s Far Right Extremists Are Using AI Images To Incite Hatred’, Worldcrunch, 7 April 2023, https://worldcrunch.com/tech-science/ai-images-extremists-germany

[4] Tatum Hunter, ‘AI Porn Is Easy to Make Now. For Women, That’s a Nightmare.’, Washington Post, 14 February 2023, https://www.washingtonpost.com/technology/2023/02/13/ai-porn-deepfakes-women-consent/; Karen Hao, ‘Deepfake Porn Is Ruining Women’s Lives. Now the Law May Finally Ban It.’, MIT Technology Review (blog), 12 February 2021, https://www.technologyreview.com/2021/02/12/1018222/deepfake-revenge-porn-coming-ban/; PR Newswire, ‘Generative AI Is the New Attack Vector for Platforms, According to ActiveFence Threat Intelligence’, Yahoo Finance (blog), 23 May 2023, https://finance.yahoo.com/news/generative-ai-attack-vector-platforms-140000029.html.

[5] Guy Hedgecoe, ‘AI-Generated Naked Child Images Shock Spanish Town of Almendralejo’, BBC News, 23 September 2023, sec. Europe, https://www.bbc.com/news/world-europe-66877718

[6] Laura Barron-Lopez, ‘Women face new sexual harassment with deepfake pornography.’, PBS Newshour, 27 June 2023, https://www.pbs.org/newshour/show/women-face-new-sexual-harassment-with-deepfake-pornography

[7] Tiffany Hsu, ‘What Can You Do When A.I. Lies About You?’, The New York Times, 3 August 2023, sec. Business, https:// www.nytimes.com/2023/08/03/business/media/ai-defamation-lies-accuracy.html;

Will Bedingfield, ‘A Chatbot Encouraged Him to Kill the Queen: It’s Just the Beginning’, Wired, 10 October 2023, https://www.wired.co.uk/article/chatbot-kill-the-queen-eliza-effect  

[8] Chloe Xiang, ‘“He Would Still Be Here”: Man Dies by Suicide After Talking with AI Chatbot, Widow Says’, Vice (blog), 30 March 2023, https://www.vice.com/en/article/pkadgm/man-dies-by-suicide-after-talking-with-ai-chatbot-widow-says

[9] Staff Writer, ‘NEDA Suspends AI Chatbot for Giving Harmful Eating Disorder Advice | Psychiatrist.Com’, Psychiatrist.com, 5 June 2023, https://www.psychiatrist.com/news/neda-suspends-ai-chatbot-for-giving-harmful-eating-disorder-advice/

[10] Sarah Ferguson, ‘Fleeing Boko Haram, and Tricked into Sexual Exploitation’, UNICEF USA (blog), 3 January 2020, https://www.unicefusa.org/stories/fleeing-boko-haram-and-tricked-sexual-exploitation.

See also Committee on the Elimination of Discrimination against Women, ‘General Recommendation No. 38 (2020) on Trafficking in Women and Girls in the Context of Global Migration’ (UN Convention on the Elimination of All Forms of Discrimination against Women, 20 November 2020), https://tbinternet.ohchr.org/_layouts/15/treatybodyexternal/Download.aspx?symbolno=CEDAW/C/GC/38&Lang=en

[11] Roberto Navigli, Simone Conia, and Björn Ross, ‘Biases in Large Language Models: Origins, Inventory, and Discussion’, Journal of Data and Information Quality 15, no. 2 (22 June 2023): 10:1-10:21, https://doi.org/10.1145/3597307

[12] Marie Lamensch, ‘Generative AI Tools Are Perpetuating Harmful Gender Stereotypes’, Centre for International Governance Innovation, 14 June 2023, https://www.cigionline.org/articles/generative-ai-tools-are-perpetuatingharmful-gender-stereotypes/;

Center for Countering Digital Hate, ‘AI Image Tool Midjourney Is Being Used to Generate Conspiratorial and Racist Images’, Research + Policy (CCDH, 11 August 2023), https://counterhate.com/research/ai-image-tool-midjourney-generate-racist-and-conspiratorial-images/#about

Johana Bhuiyan, ‘WhatsApp’s AI Shows GunWielding Children When Prompted with “Palestine”’, The Guardian, 3 November 2023, sec. Technology, https://www.theguardian.com/technology/2023/nov/02/whatsapps-ai-palestine-kids-gun-gaza-bias-israel

 

[13] Zachary Small, ‘Black Artists Say A.I. Shows Bias, With Algorithms Erasing Their History’, The New York Times, 4 July 2023, sec. Arts, https://www.nytimes.com/2023/07/04/arts/design/black-artists-bias-ai.html

 

[14] Alexandre Magueresse, Vincent Carles, and Evan Heetderks, ‘Low-Resource Languages: A Review of Past Work and Future Challenges’ (arXiv, 12 June 2020), https://doi.org/10.48550/arXiv.2006.07264.

 

[15] Gabriel Nicholas and Aliya Bhatia, ‘Lost in Translation: Large Language Models in Non-English Content Analysis’, Center for Democracy and Technology (blog), 23 May 2023, https://cdt.org/insights/lost-in-translation-large-language-modelsin-non-english-content-analysis/

[16] Leonardo Nicoletti and Dina Bass Technology + Equality, ‘Humans Are Biased. Generative AI Is Even Worse’, Bloomberg. Com, 24 August 2023, https://www.bloomberg.com/graphics/2023-generative-ai-bias/;

Chloe Xiang, ‘ Developers Created AI to Generate Police Sketches. Experts Are Horrified’, Vice, 7 February 2023, https://www.vice.com/en/article/qjk745/ai-police-sketches

[17] UNESCO, ‘Guidance for Generative AI in Education and Research’, July 2023, https://unesdoc.unesco.org/ark:/48223/pf0000386693 , p. 14

[18] Lauren Leffer, ‘Your Personal Information Is Probably Being Used to Train Generative AI Models’, Scientific American, 19 October 2023, https://www.scientificamerican.com/article/your-personal-information-is-probably-being-used-to-traingenerative-ai-models/;

Benj Edwards, ‘Artist Finds Private Medical Record Photos in Popular AI Training Data Set’, Ars Technica, 21 September 2022, https://arstechnica.com/information-technology/2022/09/artist-finds-private-medicalrecord-photos-in-popular-ai-training-data-set/.

[19] Tim Biggs, ‘Stolen information? The mystery over how tech giants train their AI chatbots’, Sydney Morning Herald, 1 August 2023, https://www.smh.com.au/technology/lawsuits-highlight-opaque-methods-big-tech-firms-use-to-train-aichatbots-20230719-p5dpks.html

[20] Nicholas Carlini et al., ‘Extracting Training Data from Diffusion Models’ (arXiv, 30 January 2023), https://doi.org/10.48550/arXiv.2301.13188

[21] HM Government, ‘Safety and Security Risks of Generative Artificial Intelligence to 2025’ (UK: GOV.UK, 25 October 2023), https://assets.publishing.service.gov.uk/media/653932db80884d0013f71b15/generative-ai-safety-securityrisks-2025-annex-b.pdf.

[22] Ben Jacobs, ‘POV: How Generative AI Is Changing Surveillance Capitalism’, Fast Company, 28 March 2023, https:// www.fastcompany.com/90871955/how-generative-ai-is-changing-surveillance-capitalism.

[23] Emanuel Maiberg, ‘It Takes 2 Clicks to Get From “Deep Tom Cruise” to Vile Deepfake Porn’, Vice (blog), 17 May 2022, https://www.vice.com/en/article/qjb7b7/ethical-deepfakes-deep-tom-cruise-ai-generated-porn.

[24] Ashish Jaiman, ‘The Danger of Deepfakes’, The Hindu, 1 January 2023, sec. Technology, https://www.thehindu.com/sci-tech/technology/the-danger-of-deepfakes/article66327991.ece;

Joseph Cox, ‘AI-Generated Voice Firm Clamps Down After 4chan Makes Celebrity Voices for Abuse’, Vice (blog), 30 January 2023, https://www.vice.com/en/article/dy7mww/ai-voice-firm-4chan-celebrity-voices-emma-watson-joe-rogan-elevenlabs.

[25] Vishwam Sankaran, ‘ChatGPT Cooks up Fake Sexual Harassment Scandal and Names Real Law Professor as Accused’, Independent, 6 April 2023, https://www.independent.co.uk/tech/chatgpt-sexual-harassment-law-professor-b2315160.html

[26] Kai Nicol-Schwarz and Tim Smith, ‘Why Harry Potter Is the Copyright Timebomb under Generative AI Models’, Sifted, 18 May 2023, https://sifted.eu/articles/generative-ai-copyright/.

[27] Gil Appel, Juliana Neelbauer, and David A. Schweidel, ‘Generative AI Has an Intellectual Property Problem’, Harvard Business Review, 7 April 2023, https://hbr.org/2023/04/generative-ai-has-an-intellectual-property-problem

[28] Gil Appel, Juliana Neelbauer, and David A. Schweidel, ‘Generative AI Has an Intellectual Property Problem’, Harvard Business Review, 7 April 2023, https://hbr.org/2023/04/generative-ai-has-an-intellectual-property-problem; https://news.artnet.com/art-world/class-action-lawsuit-ai-generators-deviantart-midjourney-stable-diffusion-2246770

[29] Kali Hays, ‘OpenAI Now Tries to Hide That ChatGPT Was Trained on Copyrighted Books, Including J.K. Rowling’s Harry Potter Series’, Business Insider, 15 August 2023, https://www.businessinsider.com/openais-latest-chatgpt-version-hidestraining-on-copyrighted-material-2023-8.

[30] Emily Flitter and Stacy Cowley, ‘Voice Deepfakes Are Coming for Your Bank Balance’, The New York Times, 30 August 2023, sec. Business, https://www.nytimes.com/2023/08/30/business/voice-deepfakes-bank-scams.html.

[31] U.N. Doc. A/73/348; see also Evelyn Aswad, ‘Losing the Freedom to Be Human’, SSRN Scholarly Paper (Rochester, NY, 29 February 2020), https://papers.ssrn.com/abstract=3635701

[32] Giovanni Spitale, Nikola Biller-Andorno, and Federico Germani, ‘AI Model GPT-3 (Dis)Informs Us Better than Humans’, Science Advances 9, no. 26 (28 June 2023): eadh1850, https://doi.org/10.1126/sciadv.adh1850.

[33] Christopher Mims, ‘Help! My Political Beliefs Were Altered by a Chatbot!’, Wall Street Journal, 13 May 2023, sec. Tech, https://www.wsj.com/articles/chatgpt-bard-bing-ai-political-beliefs-151a0fe4

[34] See, for example: Pranshu Verma and Will Oremus, ‘AI Voice Clones Mimic Politicians and Celebrities, Reshaping Reality’, Washington Post, 16 October 2023, https://www.washingtonpost.com/technology/2023/10/13/ai-voicecloning-deepfakes/;

Microsoft Threat Intelligence, ‘Sophistication, Scope, and Scale: Digital Threats from East Asia Increase in Breadth and Effectiveness’, September 2023), https://query.prod.cms.rt.microsoft.com/cms/api/am/binary/ RW1aFyW  ;

Alexandra Ulmer et al., ‘Deepfaking It: America’s 2024 Election Collides with AI Boom’, Reuters, 31 May 2023, sec. United States, https://www.reuters.com/world/us/deepfaking-it-americas-2024-election-collides-with-aiboom-2023-05-30/.

[35] Evan Selinger, ‘We Don’t Want Chatbots to Come off as People’, Boston Globe, 8 May 2023, https://www.bostonglobe.com/2023/05/08/opinion/google-bard-chatgpt-dishonest-anthropomorphism-evan-selinger/

[36] Gray Drenik, ‘AI Tools Like ChatGPT Will Fail Without Data Integrity - Here’s Why’, Forbes, 30 May 2023, https://www.forbes.com/sites/garydrenik/2023/05/30/ai-tools-like-chatgpt-will-fail-without-data-integrity--heres-why/

[37] Ben Jacobs, ‘POV: How Generative AI Is Changing Surveillance Capitalism’, Fast Company, 28 March 2023, https://www.fastcompany.com/90871955/how-generative-ai-is-changing-surveillance-capitalism;

Marcello Ienca, ‘On Artificial Intelligence and Manipulation’, Topoi 42 (20 June 2023): 1–10, https://doi.org/10.1007/s11245-023-09940-3.

[38] Irene Khan, The Special Rapporteur of the Promotion and Protection of the Rights to Freedom of Opinion and Expression, ‘Disinformation and Freedom of Opinion and Expression’ (Geneva: Human Rights Council, 13 April 2021), https://documents-dds-ny.un.org/doc/UNDOC/GEN/G21/085/64/PDF/G2108564.pdf?OpenElement

[39] Summer Lopez, Nadine Farid Johnson, and Liz Woolery, ‘PEN America Report on Artificial Intelligence and Free Expression’, PEN America (blog), 31 July 2023, https://pen.org/report/speech-in-the-machine/

[40] Lucina Di Meco and Saskia Brechenmacher, ‘Tackling Online Abuse and Disinformation Targeting Women in Politics’, Carnegie Endowment for International Peace, 20 November 2020, https://carnegieendowment.org/2020/11/30/tackling-online-abuse-and-disinformation-targeting-women-in-politics-pub-83331

[41] Christine Hauser, ‘Right-Wing Operatives Plead Guilty in Voter-Suppression Scheme’, The New York Times, 25 October 2022, sec. U.S., https://www.nytimes.com/2022/10/25/us/politics/ohio-robocalls-wohl-burkman-guilty.html.; Philip Marcelo, ‘FACT FOCUS: Fake Image of Pentagon Explosion Briefly Sends Jitters through Stock Market’, APNews, 23 May 2023, AP Fact Check edition, https://apnews.com/article/pentagon-explosion-misinformation-stock-market-ai-96f534c7 90872fde67012ee81b5ed6a4; Lubna Jerar Naqvi, ‘Beware of AI-Generated Propaganda amid Political Unrest’, Geo News, 11 May 2023, Opinion edition, https://www.geo.tv/latest/486758-beware-of-ai-generated-propaganda-amidpolitical-unrest

[42] Alena Gorbacheva, ‘No Language Left Behind: How to Bridge the Rapidly Evolving AI Language Gap’, UNDP, 6 October 2023, https://www.undp.org/kazakhstan/blog/no-language-left-behind-how-bridge-rapidly-evolving-ai-language-gap; Kira Schacht, ‘Bridging the AI Language Gap in Africa and Beyond’, DW, 29 July 2023, https://www.dw.com/en/bridging-the-ai-language-gap-in-africa-and-beyond/a-66331763

[43] Gabriel R. Sanchez and Keesha Middlemass, ‘Misinformation Is Eroding the Public’s Confidence in Democracy’, Brookings, 26 July 2022, https://www.brookings.edu/articles/misinformation-is-eroding-the-publics-confidencein-democracy/;

Lilian Olivia, ‘Disinformation was rife in Kenya’s 2022 election’, Africa at LSE, 5 January 2023, https://blogs.lse.ac.uk/africaatlse/2023/01/05/disinformation-was-rife-in-kenyas-2022-election/;

Camille Elemia, ‘In the Philippines, a Flourishing Ecosystem for Political Lies’, New York Times, 6 May 2022, https://www.nytimes.com/2022/05/06/business/philippines-election-disinformation.html 

[44] Nita Bhalla, ‘Online Disinformation Stokes Tensions as Kenya Elections Near’, Reuters, 27 June 2022, https://www.reuters.com/article/idUSL4N2Y22HF/  

 

[45] Tiffany Hsu, Stuart A. Thompson and Steven Lee Myers, ‘Elections and Disinformation Are Colliding Like Never Before in 2024’, New York Times, 9 January 2024, https://www.nytimes.com/2024/01/09/business/media/electiondisinformation-2024.html

[46] Ali Swenson, ‘Here’s how ChatGPT Maker OpenAI Plans to Deter Election Misinformation in 2024’, Associated Press, 17 January 2024, https://apnews.com/article/ai-election-misinformation-voting-chatgpt-altman-openai-0e6b22568e90733a e1f89a0d54d64139

[47] Tiffany Hsu, Stuart A. Thompson and Steven Lee Myers, ‘Elections and Disinformation Are Colliding Like Never Before in 2024’, New York Times, 9 January 2024, https://www.nytimes.com/2024/01/09/business/media/electiondisinformation-2024.html

[48] Daniel Zuidijk, ‘Deepfakes in Slovakia Preview How AI Will Change the Face of Elections’, Bloomberg, 4 October 2023, https://www.bloomberg.com/news/newsletters/2023-10-04/deepfakes-in-slovakia-review-how-ai-will-change-theface-of-elections ;

‘Deepfakes deceive voters from India to Indonesia before elections’, Economic Times, 3 January 2024, https://economictimes.indiatimes.com/news/elections/lok-sabha/india/deepfakes-deceive-voters-from-india-to-indonesiabefore-elections/articleshow/106504149.cms

[49] Alex Thompson, ‘First look: RNC Slams Biden in AI-Generated Ad’, Axios, 25 April 2023, https://www.axios.com/2023/04/25/rnc-slams-biden-re-election-bid-ai-generated-ad  

[50] Archis Chowdhury, ‘Deepfake Videos Ahead Of Bangladesh Polls Should Have Us All Concerned’, Decode, 11 January 2024, https://www.boomlive.in/decode/deepfake-elections-disinformation-bangladesh-india-us-uk-indonesia-24087

[51] Marina E. Franco, ‘AI and Weakened Electoral Body Threaten Mexican Presidential Elections’, Axios, 26 October 2023, https://www.axios.com/2023/10/26/mexico-elections-amlo-artificial-intelligence

[52] ‘ChatGPT and Co: Are AI-driven search engines a threat to democratic elections?’, Algorithm Watch, 5 October 2023, https://algorithmwatch.org/en/bing-chat-election-2023/; David Gilbert, ‘Microsoft’s AI Chatbot Replies to Election Questions With Conspiracies, Fake Scandals, and Lies | WIRED’, Wired, 15 December 2023, https://www.wired.com/story/microsoft-ai-copilot-chatbot-election-conspiracy/

[53] Nathan E. Sanders and Bruce Schneier, ‘How ChatGPT Hijacks Democracy’, New York Times, 15 January 2023, https:// www.nytimes.com/2023/01/15/opinion/ai-chatgpt-lobbying-democracy.html

[54] Pranshu Verma and Gerrit De Vynck, ‘ChatGPT Took Their Jobs. Now They Walk Dogs and Fix Air Conditioners.’, Washington Post, 5 June 2023, https://www.washingtonpost.com/technology/2023/06/02/ai-taking-jobs/

[55] Brody Ford, ‘IBM to Pause Hiring for Jobs That AI Could Do’, Bloomberg.Com, 1 May 2023, https://www.bloomberg.com/news/articles/2023-05-01/ibm-to-pause-hiring-for-back-office-jobs-that-ai-could-kill.

[56] Pawel Gmyrek, Janine Berg, and David Bescond, ‘Generative AI and Jobs: A Global Analysis of Potential Effects on Job Quantity and Quality’, Working Paper (ILO, 21 August 2023), https://www.ilo.org/wcmsp5/groups/public/---dgreports/---inst/documents/publication/wcms_890761.pdf .

[57] Mark McNeilly, ‘Will Generative AI Disproportionately Affect the Jobs of Women?’, Kenaninstitute.Unc.Edu (blog), 18 April 2023, https://kenaninstitute.unc.edu/kenan-insight/will-generative-ai-disproportionately-affect-the-jobs-of-women/

[58] Viola Zhou, ‘AI is already taking video game illustrators’ jobs in China’, Rest of World, 11 April 2023, https://restofworld.org/2023/ai-image-china-video-game-layoffs/

[59] Jake Coyle, ‘In Hollywood writers’ battle against AI, humans win (for now)’, AP News, 27 September 2023, https://apnews.com/article/hollywood-ai-strike-wga-artificial-intelligence-39ab72582c3a15f77510c9c30a45ffc8.

 

[60] Kate Wells, ‘Can a Chatbot Help People with Eating Disorders as Well as Another Human?’, NPR, 24 May 2023, sec. National, https://www.npr.org/2023/05/24/1177847298/can-a-chatbot-help-people-with-eating-disorders-as-well-asanother-human.

[61] Kieran Snyder, ‘We Asked ChatGPT to Write Performance Reviews and They Are Wildly Sexist (and Racist)’, Fast Company, 2 March 2023, https://www.fastcompany.com/90844066/chatgpt-write-performance-reviews-sexist-and-racist

[62] Karen Hao and Deepa Seetharaman, ‘Cleaning Up ChatGPT Takes Heavy Toll on Human Workers’, Wall Street Journal, 24 July 2023, sec. Tech, https://www.wsj.com/articles/chatgpt-openai-content-abusive-sexually-explicit-harassmentkenya-workers-on-human-workers-cf191483 ; Partnership on AI, ‘Responsible Sourcing of Data Enrichment Services’, 17 June 2021, https://partnershiponai.org/wp-content/uploads/2021/08/PAI-Responsible-Sourcing-of-Data-EnrichmentServices.pdf#page=27

[63] Ravi Sen and The Conversation, ‘After 25 years of growth for the $68 billion SEO industry, here’s how Google and other tech firms could render it extinct with AI’, Fortune, 21 October 2023, https://fortune.com/2023/10/21/how-generativeai-could-change-google-search-68-billion-seo-industry/

[64] Kashmir Hill, ‘Can You Hide a Child’s Face From A.I.?’, The New York Times, 14 October 2023, sec. Technology, https://www.nytimes.com/2023/10/14/technology/artifical-intelligence-children-privacy-internet.html.

[65] Geoffrey A. Fowler, ‘AI Is Acting “pro-Anorexia” and Tech Companies Aren’t Stopping It’, The Washington Post, 7 August 2023, https://www.washingtonpost.com/technology/2023/08/07/ai-eating-disorders-thinspo-anorexia-bulimia/

[66] Tech Transparency Project, ‘“Thinstagram”: Instagram’s Algorithm Fuels Eating Disorder Epidemic’, Dangerous by Design (blog), 8 December 2021, https://www.techtransparencyproject.org/articles/thinstagram-instagrams-algorithm-fuelseating-disorder-epidemic.

[67] Connie Dimsdale, ‘Teenagers Turning to AI Chatbots for Sexual Health Advice as Sex Education Put under Review’, Inews.Co.Uk, 11 August 2023, https://inews.co.uk/news/teenagers-ai-chatbots-sexual-health-advice-inaccurateinformation-2534555

[68] Christopher Mims, ‘Help! My Political Beliefs Were Altered by a Chatbot!’, Wall Street Journal, 13 May 2023, sec. Tech, https://www.wsj.com/articles/chatgpt-bard-bing-ai-political-beliefs-151a0fe4

[69] Roseann O’Reilly Runte, ‘Young People Tell Us They Need Help Identifying Misinformation’, Scientific American, 16 August 2023, https://www.scientificamerican.com/article/young-people-tell-us-they-need-help-identifying-misinformation/

[70] David De Cremer, Nicola Morini Bianzino, Ben Falk, ‘How Generative AI Could Disrupt Creative Work’, Harvard Business Review, 13 April 2023, https://hbr.org/2023/04/how-generative-ai-could-disrupt-creative-work

[71] Irene Solaiman, ‘The Gradient of Generative AI Release: Methods and Considerations’ (arXiv, 5 February 2023), http://arxiv.org/abs/2302.04844. p. 3

[72] Irene Solaiman et al., Evaluating the Social Impact of Generative AI Systems in Systems and Society, 2023. p. 6.  https://www.researchgate.net/publication/371490141_Evaluating_the_Social_Impact_of_Generative_AI_Systems_in_Systems_and_Society     

[73] Yuen Pin Yeap, ‘Generative AI is the Next Tactical Cyber Weapon for Threat Actors’, The Guardian, 16 October 2023, https://www.forbes.com/sites/forbestechcouncil/2023/10/16/generative-ai-is-the-next-tactical-cyber-weapon-for-threatactors/

[74] Yohei Nakajima, ‘Task-Driven Autonomous Agent Utilizing GPT-4, Pinecone, and LangChain for Diverse Applications – Yohei Nakajima’, 28 March 2023, https://yoheinakajima.com/task-driven-autonomous-agent-utilizing-gpt-4-pineconeand-langchain-for-diverse-applications/.

[75] Will Knight, ‘It Costs Just $400 to Build an AI Disinformation Machine’, Wired, 29 August 2023, https://www.wired.com/story/400-dollars-to-build-an-ai-disinformation-machine/ 

[76] BHRRC, ‘The Application of Generative AI to Warfare Raises Human Rights Concerns’, Business & Human Rights Resource Centre, 2 May 2023, https://www.business-humanrights.org/en/latest-news/the-application-of-generative-ai-in-warfareraises-human-rights-concerns/ ;

Eric Schewe, ‘As Militaries Adopt AI, Hype Becomes a Weapon’, Jstor, 4 August 2023, https://daily.jstor.org/as-militaries-adopt-ai-hype-becomes-a-weapon/;

Katrina Manson, ‘The US Military Is Taking Generative AI Out for a Spin’, Bloomberg, 5 July 2023, https://www.bloomberg.com/news/newsletters/2023-07-05/the-us-military-is-taking-generative-ai-out-for-a-spin.

 



[i] Ghi chú của ND: trong nội dung gốc dẫn chiếu một cách nhầm lẫn đến Điều 16 ICCPR. Việc hiệu đính sang Điều 16 ACHPR là do người dịch.

[ii] Dẫn chiếu đến ICCPR 18(2)này là của người dịch thêm vào.

Nhận xét

Bài đăng phổ biến từ blog này

DẠY TIẾNG ANH CHO TRẺ EM: NHỮNG ĐIỀU BẬC CHA MẸ NÊN BIẾT

Sự lầm tưởng về tính công bằng của quyết định tập thể