Góc khuất của ứng dụng ChatGPT

Võ Thị Liên
Đứng sau khả năng trò chuyện gây kinh ngạc của ChatGPT là hàng nghìn nhân viên thường xuyên phải đọc, lọc ra những nội dung độc hại.
dall-e-2023-01-09-181205-a-see-1675055602.jpg
Hình ảnh minh họa những nhân viên da màu thực hiện dán nhãn dữ liệu, được tạo ra bởi AI Dall-E. Ảnh: Dall-E.

ChatGPT được ca ngợi là một trong những công nghệ ứng dụng ấn tượng nhất năm 2022 khi được phát hành. Chatbot sử dụng trí tuệ nhân tạo này có thể trả lời hầu hết chủ đề mà người dùng yêu cầu bằng ngôn từ dễ hiểu. Trong một tuần, AI nói trên đã thu về hơn 1 triệu người dùng.

Có nhiều tin đồn rằng công ty đứng sau ChatGPT, OpenAI, đang đàm phán với các nhà đầu tư để huy động thêm vốn ở mức định giá 29 tỷ USD. Điều này biến nó trở thành dự án AI có giá trị lớn nhất thế giới.

Tuy nhiên ở một mặt khác, có những “công nhân IT” ở Kenya phải làm việc trong môi trường độc hại, với giá 2 USD/giờ để cải thiện ChatGPT.

Công việc độc hại trên Internet

Thế hệ tiền nhiệm của ChatGPT, GPT-3 từng thể hiện khả năng xâu chuỗi các câu lại với nhau một cách ấn tượng. Tuy nhiên, nó có xu hướng đưa ra những nhận định đậm màu bạo lực, phân biệt giới tính và chủng tộc. Điều này là do AI được đào tạo trên hàng trăm tỷ miền dữ liệu ở Internet, một kho ngôn ngữ rộng lớn.

17-1675055602.jpeg
Nhân sự của Sama phải phân loại hàng trăm tập dữ liệu mỗi ca làm việc. Ảnh: SamaAI.

Đây là con dao hai lưỡi khi Internet chứa đầy ngôn từ độc hại và sai lệch. Đội ngũ đã không tìm ra cách loại bỏ chúng khi nhập dữ liệu đầu vào. Ngay cả một nhóm gồm hàng trăm người cũng phải mất nhiều thập kỷ để rà soát theo cách thủ công.

Để giải quyết, OpenAI phải xây dựng một cơ chế phòng ngự bổ sung. Công ty học hỏi cách Facebook lọc các lời nói có tính thù địch, độc hại và ngăn nó khỏi nền tảng. Họ dùng nhiều tiền để cung cấp cho máy học ví dụ về ngôn từ xấu.

Để “dán nhãn” cho từ ngữ độc hại, OpenAI gửi hàng chục nghìn đoạn văn bản đến một công ty gia công phần mềm ở Kenya từ tháng 11/2021. Nội dung của chúng như được lấy từ nơi tối tăm nhất của Internet. Nó chứa đầy các tình huống gợi về lạm dụng tình dục, thú tính, giết người, tự tử, tra tấn, tự làm hại bản thân và loạn luân.

Đối tác của OpenAI là Sama, công ty có trụ sở ở San Francisco, nhưng dùng chủ yếu nhân lực tại Kenya, Ấn Độ và Uganda để dán nhãn cho dữ liệu của khách hàng từ Thung lũng Silicon như Google, Meta và Microsoft. Sama tự quảng cáo mình là một doanh nghiệp AI “đạo đức”, giúp 50.000 người thoát nghèo.

facebook-moderators-african-swea-1-1675055602.jpg
Khu dân cư Kibera ở thủ đô Nairobi, Kenya, nơi nhiều nhân viên của Sama trú ngụ. Ảnh: Time.

Các công nhân IT của Sama được trả 1,32-2 USD/giờ để dán nhãn cho dữ liệu của OpenAI, theo hiệu suất và thâm niên. Trong một tuyên bố, người phát ngôn của OpenAI đã xác nhận rằng các nhân viên ở Kenya đã đóng góp cho công cụ phát hiện nội dung độc hại, được tích hợp vào ChatGPT.

AI được giới công nghệ rót thêm hàng tỷ USD để dẫn đầu lĩnh vực mới. Các nhà đầu tư tin rằng hình ảnh, video, âm thanh máy tính tạo ra sẽ thay đổi thế giới.

Trái ngược với những viễn cảnh đang được vẽ ra, môi trường làm việc của những người dán nhãn dữ liệu cho thấy mặt tối của ngành. Họ bị bóc lột sức lao động trong khi đang đóng góp cho lĩnh vực công nghệ tương lai, được định giá hàng chục tỷ USD.

Một nhân viên của Sama nói với Time rằng anh ta bị ám ảnh khi đọc mô tả hình ảnh về người đàn ông quan hệ với con chó trước mặt một đứa trẻ. “Đó như màn tra tấn. Tôi phải đọc những văn bản như vậy cả tuần. Đến thứ 6, tôi dần rối trí khi nghĩ về hình ảnh đó”, người nhân viên nói.

Không chịu nổi tình trạng này, người đàn ông quyết định kết thúc công việc vào tháng 2/2022, sớm hơn 8 tháng so với hợp đồng.

Mức lương bèo bọt

Các tài liệu do Time tổng hợp cho thấy OpenAI ký 3 hợp đồng, trị giá khoảng 200.000 USD với Sama vào cuối năm 2021 để dán nhãn dữ liệu độc hại. Các nhân viên tiết lộ họ phải hoàn thành 150-250 đoạn văn bản trong ca làm việc dài 9 giờ. Mỗi đoạn dài 100-1.000 từ.

Những người được phỏng vấn đều cho biết họ bị tổn thương tinh thần nghiêm trọng vì công việc.

facebook-moderators-african-swea-1675055602.jpg
Văn phòng của Sama ở Kenya. Ảnh: Time.

Theo hợp đồng, OpenAI trả cho Sama 12,5 USD cho phần công việc dán nhãn, gấp 9 lần con số thực tế mà người công nhân nhận được. Mức lương cơ bản của những nhân viên Kenya là 170 USD mỗi tháng. Thêm các phần phụ thu, thưởng năng lực, mức lương mỗi giờ là 1,3-2 USD/giờ. Người phát ngôn của Sama cho biết rằng mức 12,5 USD là chưa bao gồm các chi phí khác. Do vậy, con số sẽ giảm đi khi đến tay người trực tiếp làm việc.

Trong khi đó, OpenAI phủ nhận trách nhiệm. Dự án cho biết họ không áp mục chỉ tiêu năng suất và Sama phải tự đảm bảo chất lượng sức khỏe tinh thần cho nhân viên của họ.

Bên cạnh những đoạn văn bản, nhân viên của Sama còn phải thu thập hình ảnh độc hại, liên quan đến giết người, ấu dâm, tình dục, thú tính, theo đơn đặt hàng của OpenAI. Đây là hành vi trái pháp luật. Do đó, hợp đồng của Sama và đối tác kết thúc trước thời hạn.

Việc này giúp nhân viên của họ tại Kenya không còn phải đối mặt với những nội dung độc hại mỗi ngày. Tuy nhiên, nó khiến kế sinh nhai của những người này bị ảnh hưởng. Khi hợp đồng bị kết thúc sớm, 200.000 USD mà OpenAI cam kết cũng không được thanh toán đầy đủ.

Sau khi nhiều sự thật được phơi bày, Sama phải dừng nhiều kế hoạch kinh doanh với nội dung độc hại. Ngày 10/1, công ty thông báo không gia hạn hợp đồng kiểm duyệt nội dung cho Facebook, trị giá 3,9 triệu USD. Đổi lại, 200 việc làm ở Nairobi không còn.

Xuân Sang