Cựu Giám đốc Đạo đức AI của Google suy nghĩ lại về Big Tech

Timnit Gebru cho biết các nhà quản lý cần cung cấp các biện pháp bảo vệ mới, hỗ trợ bởi việc thực thi cứng rắn, dành cho những người tố giác làm việc với trí thông minh nhân tạo.


Timnit Gebru là một trong những tiếng nói hàng đầu làm việc với đạo đức trong trí tuệ nhân tạo. Nghiên cứu của bà khám phá các cách để chống lại việc những thành kiến, chẳng hạn như phân biệt chủng tộc và phân biệt giới tính, xâm nhập vào AI thông qua dữ liệu và người chế tạo có khiếm khuyết. Tại Google, bà và đồng nghiệp Margaret Mitchell đã điều hành một nhóm tập trung vào chủ đề này — cho đến khi họ cố gắng xuất bản một bài báo chỉ trích các sản phẩm của Google và bị gạt bỏ. (Gebru nói rằng Google đã sa thải mình; công ty thì nói  bà ấy đã từ chức.) Giờ đây, Gebru, người sáng lập nhóm đồng chí hướng Black in AI (Tạm dịch: Da đen trong Trí tuệ Nhân tạo), đang tìm kiếm những người ủng hộ cho một nhóm nghiên cứu AI độc lập. Bà nói rằng những lời kêu gọi yêu cầu Big Tech phải chịu trách nhiệm về các sản phẩm và hoạt động của mình không thể được thực hiện chỉ từ bên trong.

Chúng ta có thể làm gì ngay bây giờ để làm cho AI công bằng hơn — ít có khả năng gây bất lợi cho người Mỹ da đen và các nhóm đối tượng khác trong mọi việc, từ cho vay thế chấp đến tuyên án hình sự?

Cơ sở là luật bảo hộ lao động, bảo vệ người tố giác và chống phân biệt đối xử. Cho dù làm bất cứ điều gì mà thiếu đi những sự bảo vệ đó, thì về cơ bản chúng đều sẽ hời hợt, bởi vì ngay khi bạn chỉ thách thức giới hạn hơi quá một chút thôi, công ty sẽ phản đối bạn quyết liệt. Những người thách thức nhiều nhất luôn là những người thuộc các cộng đồng cụ thể, từng trải qua một số vấn đề này.

AI cần những cách thức bao quát và hệ thống nào để được nhìn nhận lại về mặt lâu dài?

Chúng ta phải tái hình dung xem mục tiêu là gì? Nếu mục tiêu là kiếm tiền tối đa cho Google hoặc Amazon, thì cho dù chúng tôi làm gì, nó vẫn sẽ chỉ như một miếng băng cá nhân. Trong ngành này có một giả định rằng: “Này, chúng tôi đang làm mọi thứ trên quy mô lớn, mọi thứ đều được tự động hóa, rõ ràng là chúng tôi không thể đảm bảo an toàn. Làm thế nào mà chúng tôi có thể kiểm duyệt mọi thứ mà mọi người viết trên mạng xã hội? Chúng tôi có thể ngẫu nhiên gắn cờ cho nội dung bài viết của bạn là không an toàn, nếu không ta sẽ có đủ loại thông tin sai lệch — bạn mong đợi chúng tôi xử lý điều đó như thế nào?”

Đó là cách họ đang làm, họ có thể kiếm được bao nhiêu tiền tùy thích từ những sản phẩm cực kỳ không an toàn. Họ cần phải bị buộc không làm điều đó.

Trông nó sẽ ra sao?

Hãy nhìn vào ô tô. Bạn không được phép bán một chiếc ô tô và nói: “Chúng tôi đang bán hàng triệu chiếc ô tô, vì vậy chúng tôi không thể đảm bảo sự an toàn của từng chiếc.” Hay nói: “Chúng tôi bán ô tô khắp thế giới, nên chẳng có chỗ nào cho bạn tới để phàn nàn là ô tô của bạn có vấn đề, ngay cả khi nó tự bốc cháy hoặc đưa bạn xuống mương.” Họ được đặt cho các tiêu chuẩn cao hơn nhiều và họ phải đầu tư nhiều hơn, một cách tương xứng, vào sự an toàn.

Cụ thể thì chính phủ nên làm gì?

Sản phẩm phải được kiểm soát. Công việc của các cơ quan chính phủ nên mở rộng ra các hoạt động điều tra và kiểm toán các công ty này, đồng thời cần đưa ra các tiêu chuẩn bắt buộc phải tuân theo nếu định sử dụng AI trong các tình huống rủi ro cao. Ngay bây giờ, chính các cơ quan chính phủ đang sử dụng các sản phẩm không được kiểm soát chặt chẽ vào những lúc không nên dùng. Họ đang sử dụng Google Dịch khi kiểm tra những người tị nạn.

Là một người nhập cư [bà Gebru là người Eritrean và trốn khỏi Ethiopia ở tuổi thiếu niên, trong cuộc chiến giữa hai nước], bà cảm thấy thế nào về việc các công ty công nghệ của Hoa Kỳ đang cạnh tranh để bán AI cho Lầu Năm Góc hoặc Cục Kiểm Soát Di Trú Và Hải Quan Hoa Kỳ (ICE)?

Mọi người phải lên tiếng và phản đối. Chúng ta có thể quyết định rằng chúng ta nên dành sức lực và tiền bạc vào việc làm thế nào để California không bị cháy vì biến đổi khí hậu và làm thế nào để có lưới an toàn (safety net) cho người dân, cải thiện sức khỏe, an ninh lương thực cho chúng ta. Đối với tôi, di cư là một quyền của con người. Di cư là rời khỏi một nơi không an toàn. Nếu tôi đã không thể di cư, thì tôi không biết mình sẽ đi về đâu.

Mong muốn thành lập một liên doanh độc lập của bà có phải được thúc đẩy bởi kinh nghiệm tại Google không?

Một trăm phần trăm. Không đời nào tôi có thể đến một công ty công nghệ lớn khác và làm điều đó một lần nữa. Cho dù bạn làm gì, thì bạn cũng sẽ không có được tự do hoàn toàn — bạn sẽ bị khóa miệng theo cách này hay cách khác, nhưng chí ít bạn có thể đa dạng hóa cách mình bị “bịt miệng”.

Có điều gì khiến bà thấy có hy vọng trong việc gia tăng sự đa dạng trong lĩnh vực của mình không? Công tác tổ chức lao động tại Google và Apple?

Tất cả các nhóm đồng chí hướng — Đồng tính trong AI, Da đen trong AI, Người Latinh trong AI, Người bản địa trong AI — họ đã tạo ra các mạng lưới giữa các thành viên của nhóm và giữa các nhóm với nhau. Tôi nghĩ rằng điều đó đầy hứa hẹn và việc tổ chức lao động, theo quan điểm của tôi, là cực kỳ hứa hẹn. Nhưng các công ty sẽ buộc phải thay đổi. Họ thà sa thải những người như tôi hơn là tiến hành bất kỳ thay đổi nhỏ nào.

  Ý kiến bạn đọc

Danh mục dịch vụ

Bạn đã không sử dụng Site, Bấm vào đây để duy trì trạng thái đăng nhập. Thời gian chờ: 60 giây