Microsoft sa thải đội ngũ xã hội và đạo đức AI


Microsoft đã sa thải toàn bộ nhóm đạo đức và xã hội trong tổ chức trí tuệ nhân tạo như một phần của sa thải gần đây đã ảnh hưởng đến 10.000 nhân viên trong toàn công ty, nền tảng đã học.

Động thái này khiến Microsoft không có một nhóm chuyên trách để đảm bảo các nguyên tắc AI của họ gắn chặt với thiết kế sản phẩm vào thời điểm mà công ty đang dẫn đầu về việc cung cấp các công cụ AI cho các nhân viên chính, hiện tại và cựu nhân viên cho biết.

Microsoft vẫn duy trì hoạt động Văn phòng AI có trách nhiệm, được giao nhiệm vụ tạo ra các quy tắc và nguyên tắc để chi phối các sáng kiến ​​AI của công ty. Công ty cho biết khoản đầu tư tổng thể vào công việc có trách nhiệm đang tăng lên bất chấp những đợt sa thải gần đây.

“Microsoft cam kết phát triển các sản phẩm và trải nghiệm AI một cách an toàn và có trách nhiệm, đồng thời thực hiện điều đó bằng cách đầu tư vào con người, quy trình và quan hệ đối tác ưu tiên cho điều này,” công ty cho biết trong một tuyên bố. “Trong sáu năm qua, chúng tôi đã tăng số lượng người trong các nhóm sản phẩm của mình và trong Văn phòng AI có trách nhiệm, những người cùng với tất cả chúng tôi tại Microsoft, chịu trách nhiệm đảm bảo chúng tôi áp dụng các nguyên tắc AI của mình vào thực tế. […] Chúng tôi đánh giá cao công việc tiên phong mà Đạo đức & Xã hội đã làm để giúp chúng tôi trên hành trình AI có trách nhiệm đang diễn ra của mình.”

Nhưng các nhân viên cho biết nhóm đạo đức và xã hội đóng một vai trò quan trọng trong việc đảm bảo rằng các nguyên tắc AI có trách nhiệm của công ty thực sự được phản ánh trong thiết kế của các sản phẩm xuất xưởng.

“Công việc của chúng tôi là … tạo ra các quy tắc ở những khu vực không có.”

“Mọi người sẽ nhìn vào các nguyên tắc do văn phòng của AI chịu trách nhiệm đưa ra và nói, ‘Tôi không biết điều này áp dụng như thế nào’,” một cựu nhân viên nói. “Công việc của chúng tôi là cho họ thấy và tạo ra các quy tắc ở những khu vực không có.”

Trong những năm gần đây, nhóm đã thiết kế một trò chơi nhập vai có tên Judgement Call giúp các nhà thiết kế hình dung ra những tác hại tiềm tàng do AI có thể gây ra và thảo luận về chúng trong quá trình phát triển sản phẩm. Nó là một phần của một “bộ công cụ đổi mới có trách nhiệm” mà nhóm đã đăng công khai.

Gần đây hơn, nhóm đã làm việc để xác định các rủi ro do việc Microsoft áp dụng công nghệ OpenAI của Microsoft trong toàn bộ bộ sản phẩm của mình.

Nhóm đạo đức và xã hội có quy mô lớn nhất vào năm 2020, khi có khoảng 30 nhân viên bao gồm các kỹ sư, nhà thiết kế và triết gia. Vào tháng 10, nhóm đã bị cắt giảm còn khoảng bảy người như một phần của quá trình tổ chức lại.

Trong một cuộc họp với nhóm sau khi tổ chức lại, John Montgomery, phó chủ tịch AI của công ty, nói với các nhân viên rằng các nhà lãnh đạo công ty đã hướng dẫn họ hành động nhanh chóng. “Áp lực từ [CTO] Kevin [Scott] Và [CEO] Satya [Nadella] rất, rất cao để lấy những mô hình OpenAI mới nhất này và những mô hình ra đời sau chúng và chuyển chúng đến tay khách hàng với tốc độ rất cao,” ông nói, theo bản ghi âm cuộc họp do nền tảng.

Montgomery cho biết vì áp lực đó, phần lớn nhóm sẽ được chuyển đến các khu vực khác của tổ chức.

Một số thành viên của đội đã đẩy lùi. “Tôi sẽ đủ táo bạo để yêu cầu bạn vui lòng xem xét lại quyết định này,” một nhân viên nói trong cuộc gọi. “Mặc dù tôi hiểu rằng có những vấn đề kinh doanh đang diễn ra… điều mà nhóm này luôn quan tâm sâu sắc là cách chúng ta tác động đến xã hội và những tác động tiêu cực mà chúng ta đã gây ra. Và chúng rất quan trọng.”

Montgomery từ chối. “Tôi có thể xem xét lại không? Tôi không nghĩ là mình sẽ làm được,” anh nói. “Thật không may, áp lực vẫn như cũ. Bạn không có quan điểm như tôi, và có lẽ bạn nên biết ơn vì điều đó. Có rất nhiều thứ được nghiền thành xúc xích.”

Tuy nhiên, để trả lời các câu hỏi, Montgomery cho biết đội sẽ không bị loại.

Ông nói: “Không phải là nó sẽ biến mất — mà là nó đang phát triển. “Nó đang phát triển theo hướng dồn nhiều năng lượng hơn vào các nhóm sản phẩm riêng lẻ đang xây dựng các dịch vụ và phần mềm, điều đó có nghĩa là trung tâm trung tâm đã thực hiện một số công việc đang phân bổ khả năng và trách nhiệm của mình.”

Hầu hết các thành viên của nhóm đã được chuyển đến nơi khác trong Microsoft. Sau đó, các thành viên còn lại của nhóm đạo đức và xã hội nói rằng nhóm nhỏ hơn đã gây khó khăn cho việc thực hiện các kế hoạch đầy tham vọng của họ.

Một nhân viên cho biết động thái này để lại một lỗ hổng cơ bản trong thiết kế tổng thể của các sản phẩm AI

Khoảng năm tháng sau, vào ngày 6 tháng 3, những nhân viên còn lại được yêu cầu tham gia cuộc gọi Zoom lúc 11:30 sáng theo giờ Thái Bình Dương để nghe “bản cập nhật quan trọng về kinh doanh” từ Montgomery. Trong cuộc họp, họ được thông báo rằng đội của họ rốt cuộc đã bị loại.

Một nhân viên cho biết động thái này để lại khoảng cách cơ bản về trải nghiệm người dùng và thiết kế tổng thể của các sản phẩm AI. Họ giải thích: “Điều tồi tệ nhất là chúng tôi đã khiến doanh nghiệp gặp rủi ro và con người cũng gặp rủi ro khi làm việc này.

Cuộc xung đột nhấn mạnh sự căng thẳng đang diễn ra đối với những gã khổng lồ công nghệ xây dựng các bộ phận chuyên làm cho sản phẩm của họ có trách nhiệm với xã hội hơn. Bằng khả năng tốt nhất của mình, họ giúp các nhóm sản phẩm lường trước khả năng lạm dụng công nghệ và khắc phục mọi sự cố trước khi chúng xuất xưởng.

Nhưng họ cũng có nhiệm vụ nói “không” hoặc “chậm lại” bên trong các tổ chức mà thường không muốn nghe điều đó — hoặc chỉ ra những rủi ro có thể dẫn đến đau đầu về mặt pháp lý cho công ty nếu phát hiện ra pháp luật. Và kết quả là xích mích đôi khi bùng lên trước mắt công chúng.

Năm 2020, Google sa thải nhà nghiên cứu đạo đức AI Timnit Gebru sau khi cô ấy xuất bản một bài báo chỉ trích các mô hình ngôn ngữ lớn sẽ bùng nổ trở nên phổ biến hai năm sau đó. Kết quả là furor dẫn đến sự ra đi của một số lãnh đạo cấp cao khác trong bộvà làm giảm uy tín của công ty về các vấn đề AI có trách nhiệm.

Microsoft tập trung vào việc vận chuyển các công cụ AI nhanh hơn các đối thủ

Các thành viên của nhóm đạo đức và xã hội cho biết họ thường cố gắng hỗ trợ phát triển sản phẩm. Nhưng họ nói rằng khi Microsoft tập trung vào việc cung cấp các công cụ AI nhanh hơn so với các đối thủ của mình, ban lãnh đạo của công ty trở nên ít quan tâm hơn đến kiểu tư duy dài hạn mà nhóm chuyên môn hóa.

Đó là một động lực chịu sự giám sát chặt chẽ. Một mặt, giờ đây Microsoft có thể có cơ hội ngàn năm có một để giành được sức hút đáng kể trước Google trong lĩnh vực tìm kiếm, phần mềm năng suất, điện toán đám mây và các lĩnh vực khác mà những gã khổng lồ cạnh tranh. Khi khởi chạy lại Bing với AI, công ty đã nói với các nhà đầu tư rằng cứ 1 phần trăm thị phần nó có thể lấy đi từ Google trong tìm kiếm sẽ mang lại 2 tỷ đô la doanh thu hàng năm.

Tiềm năng đó giải thích tại sao cho đến nay Microsoft vẫn đầu tư 11 tỷ USD vào OpenAIvà hiện đang chạy đua để tích hợp công nghệ của startup vào mọi ngóc ngách trong đế chế của mình. Nó dường như đã đạt được một số thành công ban đầu: tuần trước công ty cho biết Bing hiện có 100 triệu người dùng hoạt động hàng ngày, với một phần ba trong số họ là người mới kể từ khi công cụ tìm kiếm khởi chạy lại với công nghệ của OpenAI.

Mặt khác, tất cả những người tham gia vào quá trình phát triển AI đều đồng ý rằng công nghệ này đặt ra những rủi ro tiềm tàng và có thể tồn tại, cả đã biết và chưa biết. Những gã khổng lồ công nghệ đã chịu khó đưa ra tín hiệu rằng họ đang xem xét những rủi ro đó một cách nghiêm túc – riêng Microsoft đã có ba nhóm khác nhau làm việc về vấn đề này, ngay cả sau khi loại bỏ nhóm đạo đức và xã hội. Nhưng với các cổ phần, bất kỳ sự cắt giảm nào đối với các nhóm tập trung vào công việc có trách nhiệm đều có vẻ đáng chú ý.

Việc loại bỏ nhóm đạo đức và xã hội diễn ra đúng lúc các nhân viên còn lại của nhóm đã tập trung vào thách thức được cho là lớn nhất của họ: dự đoán điều gì sẽ xảy ra khi Microsoft phát hành các công cụ do OpenAI cung cấp cho khán giả toàn cầu.

Năm ngoái, nhóm đã viết một bản ghi nhớ nêu chi tiết các rủi ro thương hiệu liên quan đến Trình tạo hình ảnh Bing, sử dụng hệ thống DALL-E của OpenAI để tạo hình ảnh dựa trên lời nhắc văn bản. công cụ hình ảnh ra mắt tại một số quốc gia vào tháng 10khiến nó trở thành một trong những sự hợp tác công khai đầu tiên của Microsoft với OpenAI.

Mặc dù công nghệ chuyển văn bản thành hình ảnh đã trở nên cực kỳ phổ biến, nhưng các nhà nghiên cứu của Microsoft đã dự đoán chính xác rằng công nghệ này cũng có thể đe dọa sinh kế của các nghệ sĩ bằng cách cho phép bất kỳ ai dễ dàng sao chép phong cách của họ.

“Khi thử nghiệm Bing Image Creator, người ta phát hiện ra rằng với một lời nhắc đơn giản chỉ bao gồm tên của nghệ sĩ và phương tiện (vẽ, in, chụp ảnh hoặc điêu khắc), các hình ảnh được tạo ra gần như không thể phân biệt được với các tác phẩm gốc,” các nhà nghiên cứu đã viết trong bản ghi nhớ.

“Nguy cơ thiệt hại về thương hiệu… là có thật và đủ nghiêm trọng để yêu cầu khắc phục.”

Họ nói thêm: “Nguy cơ thiệt hại về thương hiệu, đối với cả nghệ sĩ và các bên liên quan tài chính của họ, và PR tiêu cực cho Microsoft do khiếu nại của nghệ sĩ và phản ứng tiêu cực của công chúng là có thật và đủ nghiêm trọng để yêu cầu khắc phục trước khi nó gây thiệt hại cho thương hiệu của Microsoft.”

Ngoài ra, năm ngoái OpenAI đã cập nhật các điều khoản dịch vụ của mình để cung cấp cho người dùng “toàn quyền sở hữu đối với hình ảnh bạn tạo bằng DALL-E”. Động thái này khiến đội ngũ xã hội và đạo đức của Microsoft lo lắng.

“Nếu một trình tạo hình ảnh AI sao chép hình ảnh của các tác phẩm một cách toán học, thì về mặt đạo đức, việc đề xuất rằng người gửi lời nhắc có toàn quyền sở hữu đối với hình ảnh thu được là điều đáng nghi ngờ về mặt đạo đức,” họ viết trong bản ghi nhớ.

Các nhà nghiên cứu của Microsoft đã tạo một danh sách các chiến lược giảm thiểu, bao gồm chặn người dùng Bing Image Creator sử dụng tên của các nghệ sĩ đang sống làm lời nhắc và tạo thị trường để bán tác phẩm của nghệ sĩ sẽ hiển thị nếu ai đó tìm kiếm tên của họ.

Các nhân viên nói rằng cả hai chiến lược này đều không được triển khai và Bing Image Creator vẫn được tung ra ở các quốc gia thử nghiệm.

Microsoft cho biết công cụ này đã được sửa đổi trước khi ra mắt để giải quyết các mối lo ngại được nêu trong tài liệu và thúc đẩy nhóm AI chịu trách nhiệm làm việc bổ sung.

Nhưng các câu hỏi pháp lý về công nghệ vẫn chưa được giải quyết. Vào tháng 2 năm 2023, Getty Images đã đệ đơn kiện Stability AI, nhà sản xuất công cụ tạo nghệ thuật AI Stable Diffusion. Getty cáo buộc công ty khởi nghiệp AI sử dụng không đúng cách hơn 12 triệu hình ảnh để đào tạo hệ thống của mình.

Các cáo buộc lặp lại những lo ngại do các nhà đạo đức AI của chính Microsoft đưa ra. “Có vẻ như một số nghệ sĩ đã đồng ý cho phép sử dụng tác phẩm của họ làm dữ liệu đào tạo và có khả năng nhiều người vẫn chưa biết cách công nghệ tổng quát cho phép các biến thể của hình ảnh trực tuyến về tác phẩm của họ được tạo ra trong vài giây,” các nhân viên đã viết vào năm ngoái.



Nguồn: www.theverge.com

Bài đăng có liên quan

Twitter sẽ cho phép những người đăng ký trả phí của Blue chỉnh sửa tweet trong tối đa một giờ

Tôi đã đeo Apple Vision Pro. Đó là bản demo tai nghe tốt nhất bao giờ hết.

Blaseball đã kết thúc, The Game Band cho biết