AI ĐÚNG QUY CHUẨN ĐẠO ĐỨC CHO CÁC ỨNG DỤNG CÔNG NGHIỆP

Đưa đạo đức vào các mô hình trí tuệ nhân tạo (AI) là một nhiệm vụ khó khăn đòi hỏi những suy nghĩ chung và tinh thần đồng đội. Để giải thích khó khăn này, tôi sẽ sử dụng một ví dụ về “vấn đề xe đẩy hàng” do Triết gia Phillipa Foot đặt ra vào năm 1967: một chiếc ô tô tự lái phải làm gì nếu cách duy nhất nó có thể tránh va vào người đi bộ là đi theo cách hành khách trên xe có thể có nguy cơ bị nguy hiểm? Nó nên ưu tiên tính mạng của hành khách, hay tính mạng của người đi bộ? Nếu có hai người đi bộ thì sao? Điều gì sẽ xảy ra nếu hành khách là người cao tuổi, nghĩa là họ còn ít tuổi thọ hơn và người đi bộ là người trẻ tuổi? Nếu tình thế bị đảo ngược thì sao? Đâu là quyết định đúng đắn về mặt đạo đức trong mọi tình huống? Các nhà đạo đức học đã tranh luận về vấn đề xe đẩy hàng trong nhiều thập kỷ mà không có câu trả lời rõ ràng. Vì vậy, chúng ta có nên mong đợi các chuyên gia cá nhân làm việc trong lĩnh vực AI, có thể là nhà phát triển phần mềm, nhà khoa học dữ liệu hoặc kỹ sư tự động hóa tự tìm ra điều đó không? Vấn đề càng trở nên khó khăn hơn vì các kết quả phi đạo đức có thể là do các mục tiêu xấu, thiếu kiểm soát/ giám sát, hoặc do các tác hại không mong muốn như sự thiên vị. Bất kể vấn đề đạo đức trong AI phức tạp đến mức nào, tại Siemens chúng tôi cùng với các đối tác của mình – cam kết nỗ lực hết mình để tìm ra giải pháp vì đó là những gì chúng tôi nên làm!

Trong một blog gần đây có tiêu đề “Niềm tin – nền tảng của mọi thứ trong AI”, tôi đã giải thích rằng các thuật toán đáng tin cậy phải mạnh mẽ, hợp pháp và có quy chuẩn đạo đức như được minh họa trong Hình 1 bên dưới. Blog này tập trung vào các yếu tố đạo đức của các mô hình AI.

AI có tiềm năng giúp chúng ta giải quyết các vấn đề quan trọng như an toàn, hiệu quả công nghiệp, dịch bệnh, nạn đói, biến đổi khí hậu, nghèo đói và cải thiện tổng thể chất lượng cuộc sống. Tiềm năng này chỉ có thể được thực hiện đầy đủ nếu chúng ta hành động ngay bây giờ để giải quyết vấn đề niềm tin và yêu tố phức tạp nhất của nó, đó chính là đạo đức. Các kịch bản ứng dụng dựa trên AI mà Siemens đã và đang thực hiện trên nhiều lĩnh vực như trợ lý thông minh, phân loại tài liệu, mô phỏng vật lý, thiết kế và thẩm định các hệ thống xe tự lái, thiết kế chung, tương tác giữa người và robot, giảm công sức thử nghiệm, dự đoán và kiểm tra chất lượng hoặc bảo trì dự đoán. Tuy nhiên, khi khách hàng của chúng tôi chuyển từ môi trường tập trung vào ứng dụng sang tập trung vào dữ liệu thì nhu cầu sử dụng rộng rãi hơn của AI trên tất cả các sản phẩm của Siemens ngày càng tang. Do đó, đòi hỏi phải quan tâm nhiều hơn đến vấn đề đạo đức và tránh thiệt hại về danh tiếng.

Với các hệ sinh thái lấy dữ liệu làm trung tâm sắp tới, chúng ta phải cực kỳ cẩn thận để đặt ranh giới đạo đức lên AI, giám sát và nhận ra rằng nhiều dữ liệu hơn chưa chắc đã tốt hơn. Sự chênh lệch từ dữ liệu chất lượng kém và/ hoặc tương quan dữ liệu (được thực hiện khá dễ dàng khi nhiều dữ liệu được đặt dưới quyền xử lý của một hệ thống thông minh) có thể dẫn đến hành vi bất hợp pháp và phi đạo đức. Ngoài ra, xung đột lợi ích có thể nảy sinh từ các bộ phòng ban cạnh tranh nhau trong một tổ chức sử dụng AI. Hiện tại, chúng tôi có các quy định như Quy định chung về bảo mật dữ liệu (GDPR) ở Châu Âu và các nguyên tắc đạo đức như quy định tại Google nhằm tách bộ phận quảng cáo khỏi bộ phận tìm kiếm. Siemens sẽ soạn thảo và cam kết thực hiện các nguyên tắc phù hợp với các nguyên tắc và sản phẩm của chính chúng tôi, đồng thời nâng cao danh tiếng của chúng tôi.

Theo quan điểm phát triển công nghệ, chúng ta phải thiết kế các hệ thống AI để bảo vệ cả tính mạng và quyền con người. Ví dụ: bất kỳ mô hình AI nào mà chúng tôi phát triển phải cung cấp các đảm bảo về quyền riêng tư mạnh mẽ. Nếu không, chúng tôi sẽ không nhận được dữ liệu chính xác (vì mọi người không tin tưởng vào nó) và do đó, mô hình tiếp theo sẽ không hiệu quả. Đối với AI bảo vệ quyền riêng tư, chúng tôi đang nghiên cứu các phương pháp như Học liên kết (từ mô hình thành dữ liệu thay vì dữ liệu thành mô hình), Tính toán đa bên an toàn (phân phối trọng số cho nhiều người) và Quyền riêng tư khác biệt (thông báo tiếng ồn ngẫu nhiên trong dữ liệu) nhưng cần phải làm việc nhiều hơn để đảm bảo các quyền thích hợp đang được duy trì ổn định.

AI sẽ là một khối quan trọng để xây dựng sự thịnh vượng lâu dài cho xã hội nếu các yếu tố độc hại cũng như các “tác hại” tiềm ẩn không có chủ ý được giảm thiểu. Trong môi trường công nghiệp, nhúng các ràng buộc đạo đức vào chức năng khen thưởng của AI, cũng như đảm bảo nó hoạt động mạnh mẽ về mặt kỹ thuật và tuân thủ tất cả các luật là cách tiếp cận hứa hẹn nhất để giảm thiểu rủi ro và tạo ra AI đáng tin cậy. Siemens nhận ra rằng cần phải cân nhắc về đạo đức trong mọi giai đoạn phát triển sản phẩm. Chúng tôi đang đầu tư vào nghiên cứu để tăng cường tính mạnh mẽ và bảo mật, khả năng giải thích, an toàn, quyền riêng tư và trách nhiệm giải trình (bao gồm bảo vệ chống lại thành kiến có hại và hậu quả không mong muốn) để làm cho các giải pháp AI có đạo đức và đáng tin cậy trong bối cảnh doanh nghiệp với doanh nghiệp (B2B) (xem Hình 1 bên dưới).

Tôi sẽ kết luận bằng cách nhắc lại rằng bất kỳ mô hình AI nào mà chúng tôi phát triển đều phải cung cấp các yếu tố mạnh mẽ, hợp pháp và đạo đức để áp dụng nó một cách hiệu quả nhất có thể. Để làm được điều đó, chúng tôi cần các phương pháp tiếp cận sáng tạo và sự hợp tác trong một hệ sinh thái rộng lớn hơn gồm các công ty công nghệ thông tin và kỹ thuật, các tổ chức nghiên cứu và các đối tác. Các vấn đề đạo đức như vấn đề xe đẩy và các biến thể của nó liên quan nhiều hơn đến lĩnh vực AI công nghiệp, đòi hỏi nỗ lực chung của chúng tôi để tạo ra các giải pháp thiết thực và đảm bảo rằng toàn bộ tiềm năng của AI có thể được hiện thực hóa. Cuộc sống con người và quyền con người vẫn phải là ưu tiên hàng đầu trong lĩnh vực này. Điểm mấu chốt là bất cứ khi nào một quyết định tự chủ hoặc đề xuất của hệ thống AI xung đột với các kỳ vọng đạo đức hoặc giá trị con người, những ưu tiên này phải được xem xét – ngay cả khi làm như vậy có thể ảnh hưởng đến mức độ tự chủ và/ hoặc hiệu suất của AI.

Hình 1: Đạo đức như một yếu tố của AI đáng tin cậy trong bối cảnh các nguyên tắc B2B có liên quan.

Nguồn: Siemens

 

Leave a Reply

Your email address will not be published.