AI và Big Data Expo: Khám phá đạo đức trong AI và các biện pháp bảo vệ cần thiết

Author
Điểm bùng phát giữa khả năng chấp nhận và ác cảm khi nói đến ý nghĩa đạo đức của trí tuệ nhân tạo đã bị loại bỏ từ lâu. Gần đây, các dòng cảm thấy ngày càng mờ. Nghệ thuật hoặc nhiếp ảnh do AI tạo ra , chưa kể đến các khả năng của ChatGPT của OpenAI , cho thấy sự tinh vi hơn của công nghệ. Nhưng với chi phí nào?

Screenshot 2023-01-03 113532.png

Một phiên hội thảo gần đây tại AI & Big Data Expo ở London đã khám phá những vùng xám đạo đức này, từ việc đánh bại sự thiên vị cố hữu đến các cơ chế của công ty và giảm thiểu rủi ro mất việc làm.

James Fletcher lãnh đạo ứng dụng AI có trách nhiệm tại BBC. Công việc của anh ấy, như anh ấy nói, 'đảm bảo những gì [BBC] đang làm với AI phù hợp với các giá trị của chúng tôi'. Anh ấy nói rằng mục đích của AI, trong bối cảnh của BBC, là tự động hóa việc ra quyết định. Tuy nhiên, đạo đức là một thách thức nghiêm trọng và dễ nói hơn là hành động – một phần là do tốc độ thay đổi. Fletcher đã nghỉ phép ba tháng để chăm sóc con cái và những thay đổi khi anh ấy trở lại, chẳng hạn như Khuếch tán ổn định , 'đã làm anh ấy kinh ngạc [về việc] công nghệ này tiến bộ nhanh như thế nào.'

Fletcher nói: “Tôi hơi lo lắng rằng đoàn tàu đang bị tụt lại một chút về mặt tiến bộ công nghệ, so với nỗ lực cần thiết để giải quyết những vấn đề khó khăn đó. “Đây là một thách thức xã hội-kỹ thuật, và chính phần xã hội của nó mới thực sự khó khăn. Chúng ta phải tham gia không chỉ với tư cách là các nhà công nghệ mà còn với tư cách là những công dân.”

Daniel Gagar của PA Consulting, người điều hành phiên họp, đã lưu ý tầm quan trọng của "nơi đồng tiền dừng lại" về mặt trách nhiệm và đối với những hậu quả nghiêm trọng hơn như thực thi pháp luật. Priscila Chaves Martinez, giám đốc Văn phòng Quản lý Chuyển đổi, rất muốn chỉ ra những bất bình đẳng cố hữu khó giải quyết.

“Tôi nghĩ đó là một cải tiến tuyệt vời, thực tế là chúng tôi đã có thể tiến bộ từ quan điểm nguyên tắc,” cô nói. “Điều khiến tôi lo lắng nhất là làn sóng nguyên tắc này sẽ bị pha loãng mà không có ý nghĩa cơ bản rằng nó được áp dụng khác nhau đối với mọi cộng đồng và mọi quốc gia.” Nói cách khác, những gì hiệu quả ở Châu Âu hoặc Hoa Kỳ có thể không áp dụng được cho miền nam bán cầu. Cô ấy nói thêm: “Ở bất cứ nơi nào chúng ta kết hợp con người vào phương trình, chúng ta sẽ có sự thiên vị,” cô ấy nói thêm, đề cập đến lập luận kỹ thuật xã hội. “Vì vậy, xã hội đầu tiên, kỹ thuật sau.”

Elliot Frazier, người đứng đầu cơ sở hạ tầng AI tại AI for Good Foundation, nhận xét: “Cần phải quan tâm và cần có một cuộc đối thoại cởi mở, đồng thời cho biết thêm rằng cần phải đưa các khuôn khổ và nguyên tắc vào cộng đồng AI rộng lớn hơn. Frazier nói thêm: “Hiện tại, chúng ta đang chậm trễ đáng kể trong việc có các thông lệ tiêu chuẩn, cách thức tiêu chuẩn để thực hiện đánh giá rủi ro.

“Tôi sẽ ủng hộ [điều đó] như một nơi để bắt đầu – thực sự ngồi xuống khi bắt đầu bất kỳ dự án AI nào, đánh giá các rủi ro tiềm ẩn.” Frazier lưu ý rằng quỹ đang xem xét các hướng này với chương trình kiểm toán đạo đức AI , nơi các tổ chức có thể nhận trợ giúp về cách họ xây dựng các câu hỏi hàng đầu chính xác về AI của họ và để đảm bảo quản lý rủi ro phù hợp.

Đối với Ghanasham Apte, trưởng nhóm phân tích và cá nhân hóa hành vi của nhà phát triển AI tại BT Group, tất cả là về lan can. “Chúng ta cần nhận ra rằng AI là một công cụ – nó là một công cụ nguy hiểm nếu bạn áp dụng nó sai cách,” Apte nói. Tuy nhiên, với các bước như AI có thể giải thích được hoặc đảm bảo xử lý sai lệch trong dữ liệu, nhiều rào cản là 'cách duy nhất chúng tôi sẽ khắc phục vấn đề này', Apte nói thêm.

Chaves Martinez, ở một mức độ nào đó, không đồng ý. “Tôi không nghĩ thêm nhiều lan can là đủ,” cô nhận xét. “Đó chắc chắn là bước đầu tiên đúng đắn, nhưng chưa đủ. Đó không phải là cuộc trò chuyện giữa các nhà khoa học dữ liệu và người dùng, hay các nhà hoạch định chính sách và các công ty lớn; đó là cuộc trò chuyện của toàn bộ hệ sinh thái và không phải tất cả hệ sinh thái đều được thể hiện tốt.”

Đó có thể là một bước hữu ích, nhưng Fletcher, theo quan điểm ban đầu của mình, lưu ý rằng các cột gôn tiếp tục dịch chuyển. “Chúng ta cần thực sự ý thức về các quy trình cần thực hiện để đảm bảo AI có trách nhiệm giải trình và có thể tranh cãi được; rằng đây không chỉ là một khuôn khổ mà chúng ta có thể đánh dấu mọi thứ, mà còn là sự tham gia liên tục, liên tục,” Fletcher nói.

“Nếu bạn nghĩ về những thứ như thiên vị, những gì chúng ta nghĩ bây giờ không phải là những gì chúng ta nghĩ về nó 5, 10 năm trước. Sẽ có rủi ro nếu chúng ta áp dụng cách tiếp cận của người theo chủ nghĩa giải pháp, chúng ta tạo ra một kiểu thiên vị cho AI, sau đó chúng ta gặp vấn đề [và] chúng ta sẽ cần đánh giá lại các giả định của mình.”

Chi tiết hơn, quý vị và các bạn đọc bài viết tại đây: https://www.artificialintelligence-...ing-ethics-in-ai-and-the-guardrails-required/

Nguồn: Artificial Intelligence News.
 
Top