Thiên kiến AI
Thuật toán không phải lúc nào cũng trung lập khi đánh giá con người, sự kiện hay sự vật khác nhau cho các mục đích khác nhau. Do đó, chúng ta cần hiểu rõ những thiên kiến này để phát triển các hệ thống AI không thiên vị. Bài viết này sẽ thảo luận về định nghĩa thiên kiến AI, các loại thiên kiến, ví dụ thực tế và cách giảm thiểu rủi ro từ chúng.
Thiên kiến AI là gì?
Thiên kiến Machine Learning, còn gọi là thiên kiến thuật toán hoặc thiên kiến Trí tuệ Nhân tạo, là xu hướng của các thuật toán phản ánh thiên kiến của con người. Đây là hiện tượng xảy ra khi một thuật toán đưa ra các kết quả thiên lệch một cách hệ thống, thường do những giả định sai lầm trong quá trình xây dựng. Trong bối cảnh xã hội ngày càng đề cao sự đa dạng và đại diện, vấn đề này càng trở nên nghiêm trọng vì các thuật toán có thể củng cố những thiên kiến vốn có.
Ví dụ: Một thuật toán nhận diện khuôn mặt có thể dễ dàng nhận diện người da trắng hơn người da đen vì dữ liệu huấn luyện chứa chủ yếu hình ảnh của người da trắng. Điều này có thể gây ra sự phân biệt đối xử, làm giảm cơ hội bình đẳng và tiếp tục duy trì sự bất công. Điều đáng lo ngại là những thiên kiến này thường không được nhận ra cho đến khi đã được tích hợp vào phần mềm.
3 ví dụ về thiên kiến AI trong thực tế
1. Phân biệt chủng tộc trong hệ thống y tế Mỹ
Công nghệ nên giúp giảm bất bình đẳng y tế, nhưng AI lại có thể làm trầm trọng thêm vấn đề nếu được huấn luyện bằng dữ liệu không đại diện.
- Ví dụ: Năm 2019, một nghiên cứu phát hiện ra rằng một thuật toán được sử dụng tại các bệnh viện Mỹ để dự đoán bệnh nhân cần chăm sóc y tế bổ sung đã ưu tiên bệnh nhân da trắng hơn bệnh nhân da đen. Nguyên nhân là thuật toán dựa vào chi phí y tế trước đây của bệnh nhân, mà chi phí này có sự khác biệt lớn giữa các nhóm chủng tộc.
- Giải pháp: Các nhà nghiên cứu đã hợp tác với công ty dịch vụ y tế Optum để giảm 80% thiên kiến này. Tuy nhiên, nếu vấn đề không được phát hiện, thuật toán sẽ tiếp tục gây ra sự bất công.
2. CEO được miêu tả chủ yếu là nam giới
- Theo nghiên cứu năm 2015, chỉ 11% hình ảnh xuất hiện khi tìm kiếm từ khóa “CEO” trên Google là phụ nữ, dù phụ nữ chiếm 27% tổng số CEO tại Mỹ.
- Một nghiên cứu khác phát hiện rằng hệ thống quảng cáo của Google hiển thị các công việc lương cao cho nam giới nhiều hơn phụ nữ. Nguyên nhân có thể là do hành vi người dùng hoặc thuật toán học theo các mẫu hành vi xã hội không công bằng.
3. Thuật toán tuyển dụng của Amazon
Amazon từng sử dụng AI để đánh giá ứng viên, nhưng hệ thống này lại ưu tiên nam giới hơn phụ nữ.
- Nguyên nhân là dữ liệu huấn luyện đến từ các hồ sơ ứng tuyển trước đó, trong đó phần lớn ứng viên là nam do sự thống trị của nam giới trong ngành công nghệ. Kết quả là AI tự động phạt điểm các hồ sơ liên quan đến nữ giới hoặc những trường đại học chỉ dành cho nữ.
- Dù Amazon đã cố gắng điều chỉnh, nhưng dự án cuối cùng bị hủy bỏ vì mất niềm tin vào hệ thống
Cách thiên kiến AI phản ánh thiên kiến xã hội
AI không thể tránh khỏi những xu hướng thiên vị của con người, trừ khi chúng ta nỗ lực đảm bảo sự công bằng trong các hệ thống AI. Dưới đây là một số nguyên nhân phổ biến:
-
Dữ liệu huấn luyện phản ánh bất bình đẳng xã hội:
Ví dụ, các kỹ thuật xử lý ngôn ngữ tự nhiên (NLP) học từ các bài báo có thể vô tình tiếp thu thiên kiến giới tính hoặc sắc tộc. -
Cách thu thập và chọn lọc dữ liệu:
Trong mô hình AI phục vụ tư pháp hình sự, nếu dữ liệu tập trung quá mức vào một khu vực nhất định, sẽ tạo ra ấn tượng sai lệch rằng khu vực đó có tỷ lệ tội phạm cao hơn. -
Dữ liệu do người dùng tạo ra:
Nghiên cứu cho thấy các tìm kiếm liên quan đến tên người da đen thường xuất hiện nhiều hơn từ khóa “bị bắt giữ,” phản ánh vòng lặp thiên kiến từ người dùng. -
Phân loại không phù hợp:
Một mô hình cho vay thế chấp có thể kết luận rằng người cao tuổi dễ vỡ nợ hơn và hạ điểm tín dụng của họ, dẫn đến phân biệt tuổi tác bất hợp pháp.
Ví dụ khác: Apple Card từng bị chỉ trích vì cấp hạn mức tín dụng cho chồng cao hơn gấp nhiều lần so với vợ, dù cả hai có cùng hồ sơ tài chính.
Kết luận
Thiên kiến AI là vấn đề phức tạp nhưng không thể bỏ qua. Để giảm thiểu thiên kiến, cần chú trọng vào việc sử dụng dữ liệu đại diện, thiết kế mô hình công bằng, và liên tục giám sát hiệu suất của các thuật toán. Chỉ khi đó, AI mới thực sự hỗ trợ con người đưa ra các quyết định công bằng hơn.