Xem thêm thông tin của Báo PNVN trên
Phụ nữ Việt Nam
MỚI NHẤT ĐỘC QUYỀN MULTIMEDIA CHUYÊN ĐỀ
25/11/2025 - 20:51 (GMT+7)

Ai sẽ bảo vệ những nhóm người dễ bị tổn thương khi trí tuệ nhân tạo mắc sai lầm?

Quang Chiến
Ai sẽ bảo vệ những nhóm người dễ bị tổn thương khi trí tuệ nhân tạo mắc sai lầm?

Ảnh minh họa

Dự thảo Luật Trí tuệ nhân tạo (AI) đã được Bộ Khoa học và Công nghệ công bố lấy ý kiến để xây dựng hành lang pháp lý cho công nghệ mới. Thế nhưng giữa hàng trăm điều khoản về tiêu chuẩn kỹ thuật, thử nghiệm và quản trị dữ liệu, một câu hỏi quan trọng vẫn còn lửng lơ: Ai sẽ bảo vệ những nhóm người dễ bị tổn thương khi trí tuệ nhân tạo mắc sai lầm?

Khi công nghệ cũng định kiến giới

Tháng 5/2025, tại TPHCM, một công ty công nghệ nhân sự triển khai hệ thống tuyển dụng bằng AI với lời quảng bá "chấm điểm công bằng, loại bỏ định kiến". Hệ thống tự động sàng lọc, xếp hạng ứng viên mà không cần con người can thiệp. Sau hai tháng, 78% hồ sơ nữ bị loại ngay từ vòng đầu. Chị Nguyễn Thị Hạnh, kỹ sư phần mềm (28 tuổi), bị từ chối chỉ 12 giây sau khi nộp hồ sơ. Khi hỏi nguyên nhân, chị nhận được câu trả lời: "AI chấm tự động, không có người kiểm tra".

Kết quả điều tra nội bộ cho thấy thuật toán học từ dữ liệu tuyển dụng 5 năm qua, trong đó 90% nhân viên kỹ thuật là nam. Trường hợp này, AI đã vô tình học lại định kiến giới, rồi tái sản xuất chúng như một quy chuẩn "khách quan". Thời điểm công ty trên thử nghiệm, không có cơ chế pháp lý nào hiện hành quy định trách nhiệm khi thuật toán gây sai lệch hay phân biệt đối xử. Người bị hại không có nơi khiếu nại, cơ quan quản lý cũng không có căn cứ xử lý.

Vấn đề không chỉ của Việt Nam, tháng 8/2024, tại California (Mỹ), một vụ tai nạn khiến hai người tử vong khi xe điện Tesla Model Y đang bật chế độ tự lái. Theo báo cáo của Cơ quan An toàn Giao thông Quốc gia Mỹ (NHTSA) chỉ ra rằng: Hệ thống AI nhận diện sai vật thể, nhầm dải phản quang là khoảng trống; Cảm biến radar bị lỗi ánh sáng yếu; Người lái không can thiệp kịp vì quá tin tưởng vào trí tuệ nhân tạo.

Về vụ việc này, Tesla cho rằng lỗi thuộc về người điều khiển, nhưng NHTSA kết luận lỗi cốt lõi nằm ở thuật toán. AI sai, con người chết và pháp luật vẫn chưa kịp định danh ai chịu trách nhiệm. Những ví dụ trên là lời cảnh tỉnh: Khi công nghệ vượt quá khả năng quản trị của luật pháp, người dân, đặc biệt là nhóm người yếu thế thiếu quyền phản biện, thiếu hiểu biết kỹ thuật sẽ là những người phải gánh chịu thiệt hại đầu tiên.

Hiện Dự thảo Luật Trí tuệ nhân tạo đã kết thúc quá trình lấy ý kiến kể từ sau ngày 20/10. Trong quá trình lấy ý kiến Dự thảo, Bộ Khoa học và Công nghệ đã nhận được góp ý từ 40 đơn vị với tổng số 219 ý kiến. Trong đó, nổi bật là các góp ý để hoàn thiện về vấn đề đạo đức của AI như: Ai sẽ là người chịu trách nhiệm sau cùng? Nhóm người yếu thế được bảo vệ như thế nào khi thuật toán vô tình khiến họ trở nên thiệt thòi?... Điều này cho thấy, song song với tính cần thiết phải có Luật trí tuệ nhân tạo thì yếu tố nhân văn của Luật cũng cần được xem xét một cách cẩn trọng, nhất là đảm bảo quyền lợi cho nhóm người dễ bị tổn thương.

Bổ sung nguyên tắc về "Đạo đức AI"

Góp ý vào Dự thảo Luật Trí tuệ nhân tạo Bộ Tư pháp chỉ rõ một điểm nghẽn then chốt: dự thảo "chưa xác định rõ chủ thể chịu trách nhiệm pháp lý trong toàn bộ vòng đời của hệ thống AI". Trong khi đó, Bộ Nông nghiệp và Môi trường đề nghị: Nghiên cứu, bổ sung nguyên tắc về "Đạo đức AI" trong hoạt động nghiên cứu, phát triển, cung cấp, triển khai và sử dụng hệ thống trí tuệ nhân tạo tại Việt Nam. Bộ này nhấn mạnh việc bảo đảm phát triển trí tuệ nhân tạo mang tính bao trùm, công bằng, tạo cơ hội tiếp cận và thụ hưởng cho mọi người dân, không ai bị bỏ lại phía sau đặc biệt là nhóm người dễ bị tổn thương như phụ nữ, người già, trẻ em, người khuyết tật…

Ai sẽ bảo vệ những nhóm người dễ bị tổn thương khi trí tuệ nhân tạo mắc sai lầm?- Ảnh 1.

“Một đạo luật tốt không chỉ bảo vệ dữ liệu mà còn bảo vệ người dân, đặc biệt là những người không thể tự bảo vệ mình trước công nghệ”.

  • Luật sư Nguyễn Thị Thu Hoài

Ủy ban Khoa học, Công nghệ và Môi trường của Quốc hội cũng đưa ra cảnh báo: "Luật không chỉ điều chỉnh hoạt động công nghệ mà còn phải điều chỉnh hành vi con người trong việc sử dụng công nghệ. Nếu không có khung đạo đức, AI có thể gây tổn hại vô hình cho nhóm dễ bị tổn thương". Trong phản hồi các góp ý, Đại diện Bộ Khoa học và Công nghệ cho biết, cơ quan soạn thảo đang hướng tới việc "xây dựng khung quản lý AI dựa trên mức độ rủi ro", tuy nhiên cũng thừa nhận "vấn đề đạo đức và bảo vệ nhóm dễ bị tổn thương vẫn cần được làm rõ trong quá trình hoàn thiện luật".

Tại Hội thảo góp ý Dự thảo Luật Trí tuệ nhân tạo, một số chuyên gia cho rằng: Nếu AI được huấn luyện trên dữ liệu thiên lệch do AI tạo ra sẽ khuếch đại thành kiến giới, vùng miền hay tầng lớp. Như vậy người dễ bị tổn thương vốn ít cơ hội lên tiếng, sẽ chịu tổn thương kép. Các tiếng nói cảnh báo đều gặp nhau ở một điểm: Luật phải đi trước công nghệ để bảo vệ người dân; nếu không, trí tuệ nhân tạo có thể trở thành công cụ nhân rộng bất bình đẳng thay vì thu hẹp nó.

Theo GS.TS Hồ Tú Bảo, Viện Nghiên cứu cao cấp về Toán đề xuất: Bổ sung khái niệm "Đạo đức AI", tập hợp các nguyên tắc bắt buộc khi nghiên cứu, phát triển và sử dụng AI, nhằm đảm bảo công bằng, minh bạch, an toàn và trách nhiệm xã hội. Tuy nhiên, trong bản dự thảo hiện hành, điều khoản này mới chỉ dừng ở mức "khuyến khích". "Đạo đức mà chỉ khuyến khích thì chẳng khác nào biển báo giữa sa mạc". Cùng chung quan điểm, ông Phùng Văn Ổn, Phó Chủ tịch Hội Tin học Việt Nam kiến nghị, đạo đức AI cần bổ sung nguyên tắc tôn trọng quyền con người, quyền riêng tư, đặc biệt là phải hướng đến nhóm người yếu thế.

Phải lấy con người làm trung tâm

Liên quan đến vấn đề này, theo Luật sư Nguyễn Thị Thu Hoài, Đoàn luật sư TP Hà Nội cho hay: Dự thảo Luật Trí tuệ nhân tạo hiện nặng về quản lý kỹ thuật, nhẹ về quyền con người. "Một đạo luật tốt không chỉ bảo vệ dữ liệu, mà còn bảo vệ người dân đặc biệt là những người dễ bị tổn thương", luật sư Hoài cho hay.

Bà Hoài chỉ ra 3 khoảng trống lớn trong dự thảo: Thứ nhất, cơ chế "sandbox" (thử nghiệm có kiểm soát) chưa có hàng rào bảo vệ cụ thể. Không rõ ai giám sát, tiêu chí nào là an toàn và cách xử lý khi thử nghiệm gây thiệt hại cho người dùng; Thứ hai, trách nhiệm pháp lý chưa tách bạch giữa nhà phát triển, nhà cung cấp và người vận hành, khiến khi AI gây hậu quả, việc truy trách nhiệm gần như bất khả thi; Thứ ba, chưa có cơ chế bảo vệ người bị hại. Luật nêu "bảo đảm quyền và lợi ích hợp pháp của con người" nhưng chưa quy định cơ quan tiếp nhận khiếu nại, chưa có quỹ hỗ trợ hay cơ chế giải trình.

Ai sẽ bảo vệ những nhóm người dễ bị tổn thương khi trí tuệ nhân tạo mắc sai lầm?- Ảnh 2.

Luật về trí tuệ nhân tạo phải đặt con người, đặc biệt là những người dễ bị tổn thương vào trung tâm của mọi quy định”.

  • PGS.TS Bùi Thị An, đại biểu quốc hội khóa XIII

PGS.TS Bùi Thị An, nguyên đại biểu Quốc hội, Ủy viên Ủy ban Khoa học, Công nghệ và Môi trường Quốc hội khóa XIII, nhấn mạnh: "AI không có cảm xúc nhưng người làm luật phải có nhân văn. Luật về trí tuệ nhân tạo phải đặt con người, đặc biệt là người dễ bị tổn thương vào trung tâm mọi quy định". Theo bà, phụ nữ, người cao tuổi, người khuyết tật, người thu nhập thấp… là những nhóm đang gặp rào cản vô hình trong việc tiếp cận AI.

PGS.TS Bùi Thị An lấy ví dụ: Trong y tế, người cao tuổi khó sử dụng hệ thống khám bệnh trực tuyến vì yêu cầu nhận diện khuôn mặt hoặc giọng nói. Trong giáo dục, AI ngôn ngữ đánh giá thấp học sinh nông thôn vì dữ liệu huấn luyện thiên về đô thị. Trong tài chính, AI tín dụng tự động hạ điểm người nghèo do thiếu lịch sử vay vốn. "Những rào cản này không chỉ là kỹ thuật mà là biểu hiện của khoảng trống nhân văn trong chính sách. Luật phải được viết để không ai bị loại trừ chỉ vì họ dễ bị tổn thương", bà An phân tích.

Để thực hiện được việc đó, PGS.TS Bùi Thị An đề xuất 3 giải pháp cụ thể: Thứ nhất, bắt buộc đánh giá tác động xã hội và giới (SIA/GIA) trước khi phê duyệt hệ thống AI dân sinh; Thứ 2, thành lập Hội đồng Giám sát Đạo đức AI độc lập, có sự tham gia của các tổ chức xã hội và đại diện nhóm người dễ bị tổn thương; Thứ 3, quy định quyền giải trình, cho phép người dân yêu cầu xem xét lại các quyết định tự động hóa. Bà An khẳng định: "Một đạo luật về AI chỉ có giá trị khi nó bảo vệ được người dễ tổn thương nhất. Nếu luật chỉ bảo vệ công nghệ mà quên con người, đó là thất bại".

Ý kiến của bạn
Bình luận
Xem thêm bình luận