Trên internet, không ai biết bạn là con người


Tháng 4 vừa qua, Nicole, 27 tuổi, đã đăng một video TikTok về cảm giác kiệt sức trong sự nghiệp của mình. Tuy nhiên, khi cô ấy kiểm tra các bình luận vào ngày hôm sau, một cuộc trò chuyện khác đã diễn ra.

“Trời ơi, đây không phải là người thật,” một người bình luận. “Tôi sợ.”

“Không hợp pháp cô ấy là AI,” một người khác nói.

Nicole, sống ở Đức, mắc chứng rụng tóc. Đó là một tình trạng có thể dẫn đến rụng tóc trên cơ thể của một người. Vì điều này, cô ấy đã quen với việc mọi người nhìn cô ấy một cách kỳ lạ, cố gắng tìm ra điều gì “không ổn”, cô ấy nói qua một cuộc gọi điện video. “Nhưng tôi chưa bao giờ đưa ra kết luận này, rằng [I] phải là CGI hoặc bất cứ thứ gì.”

Trong vài năm qua, các công cụ AI và sáng tạo CGI ngày càng trở nên tốt hơn trong việc giả làm người. Chatbot mới của Bing đang yêuvà những người có ảnh hưởng như MãMikoLil Miquela yêu cầu chúng tôi đối xử với một loạt các ký tự kỹ thuật số giống như người thật. Nhưng khi các công cụ để đóng giả con người ngày càng sống động như thật, những người tạo ra con người trực tuyến đôi khi thấy mình ở một vị trí bất thường: được yêu cầu chứng minh rằng họ có thật.

Hầu như mỗi ngày, một người được yêu cầu chứng minh nhân tính của họ với máy tính

Hầu như mỗi ngày, một người được yêu cầu chứng minh nhân tính của họ với máy tính. Năm 1997, các nhà nghiên cứu tại công ty công nghệ thông tin Sanctum phát minh phiên bản đầu tiên của cái mà ngày nay chúng ta gọi là “CAPTCHA” như một cách để phân biệt giữa hành động tự động được máy tính hóa và hành động của con người. Từ viết tắt, sau này được đặt ra bởi các nhà nghiên cứu tại Đại học Carnegie Mellon và IBM vào năm 2003, là một sự thay thế cho “Thử nghiệm Turing công cộng hoàn toàn tự động để phân biệt máy tính và con người.” CAPTCHA được sử dụng để ngăn bot thực hiện những việc như đăng ký hàng loạt địa chỉ email, xâm nhập các trang web thương mại hoặc xâm nhập vào các cuộc thăm dò trực tuyến. Chúng yêu cầu mọi người dùng xác định một loạt các chữ cái bị che khuất hoặc đôi khi chỉ cần đánh dấu vào ô: “Tôi không phải là người máy”.

Phương pháp tương đối lành tính này có một ý nghĩa mới vào năm 2023 khi sự gia tăng của các công cụ OpenAI như DALL-E và ChatGPT khiến người dùng của họ kinh ngạc và sợ hãi. Những công cụ này có thể tạo ra tác phẩm nghệ thuật thị giác phức tạp và tạo ra những bài tiểu luận dễ đọc chỉ với sự trợ giúp của một vài từ khóa do con người cung cấp. ChatGPT tự hào có 30 triệu người dùng và khoảng 5 triệu lượt truy cập mỗi ngày, dựa theo Thời báo New York. Các công ty như Microsoft và Google đua nhau công bố đối thủ cạnh tranh của chính họ.

Do đó, không có gì ngạc nhiên khi chứng hoang tưởng AI từ con người đang ở mức cao nhất mọi thời đại. Những tài khoản vừa gửi tin nhắn trực tiếp cho bạn “chào” trên Twitter? Bot. Người đó đã thích mọi bức ảnh Instagram mà bạn đăng trong hai năm qua? Một bot. Một hồ sơ mà bạn tiếp tục truy cập trên mọi ứng dụng hẹn hò cho dù bạn có vuốt sang trái bao nhiêu lần đi chăng nữa? Có lẽ cũng là một bot.

Hơn bao giờ hết, chúng tôi không chắc mình có thể tin vào những gì mình thấy trên internet hay không

Việc buộc tội ai đó là “bot” đã trở thành một cuộc săn lùng phù thủy giữa những người dùng mạng xã hội, được sử dụng để làm mất uy tín của những người mà họ không đồng ý bằng cách khẳng định quan điểm hoặc hành vi của họ không đủ chính đáng để nhận được sự ủng hộ thực sự. Ví dụ, những người ủng hộ ở cả hai phía của Johnny Depphổ phách đã nghe thử nghiệm tuyên bố rằng hỗ trợ trực tuyến cho người kia ít nhất phần nào được tạo thành từ các tài khoản bot. Hơn bao giờ hết, chúng ta không chắc liệu mình có thể tin vào những gì mình thấy trên internet hay không — và những người thực đang phải gánh chịu hậu quả.

Đan Mạch Carter, một TikToker chia sẻ bình luận xã hội, suy đoán về việc cô ấy có phải là con người hay không bắt đầu khi cô ấy chỉ có 10.000 người theo dõi TikTok. Người xem bắt đầu hỏi liệu cô ấy có phải là người máy không, buộc tội cô ấy thể hiện “rung cảm AI” và thậm chí hỏi cô ấy để quay phim cô ấy đang thực hiện CAPTCHA. “Tôi nghĩ điều đó thật tuyệt,” cô ấy thừa nhận qua một cuộc gọi video.

Cô ấy nói: “Tôi có một gu thẩm mỹ rất được quản lý và cụ thể. Điều này bao gồm việc sử dụng cùng một khung hình cho mọi video và thường là cùng một bộ quần áo và kiểu tóc. Danisha cũng cố gắng đo lường và khách quan trong bài bình luận của mình, điều này cũng khiến người xem nghi ngờ. “Hầu hết các video TikTok của mọi người đều bình thường. Chúng không được sắp xếp, chúng là những bức ảnh chụp toàn thân, hoặc ít nhất bạn thấy chúng di chuyển xung quanh và tham gia vào các hoạt động không chỉ ngồi trước máy quay.”

Sau lần đầu tiên được lan truyền, Nicole đã cố gắng trả lời những người tố cáo mình bằng cách giải thích về chứng rụng tóc của cô ấychỉ ra những phẩm chất của con người giống như những đường rám nắng của cô ấy khi đội tóc giả. Những người bình luận đã không mua nó.

“Mọi người sẽ đưa ra toàn bộ lý thuyết trong các bình luận, [they] sẽ nói, ‘Này, hãy xem thứ hai này. Bạn hoàn toàn có thể thấy video bị trục trặc,” cô nói. “Hoặc ‘bạn có thể thấy cô ấy bị trục trặc.’ Và điều đó thật buồn cười vì tôi sẽ đến đó và xem nó và giống như, ‘Bạn đang nói về cái quái gì vậy?’ Bởi vì tôi biết tôi là thật.”

Càng nhiều người sử dụng máy tính để chứng minh họ là con người, máy tính thông minh hơn càng bắt chước họ

Nhưng không có cách nào để Nicole chứng minh điều đó bởi vì làm sao một người chứng minh được nhân tính của chính họ? Mặc dù các công cụ AI đã tăng tốc theo cấp số nhân, nhưng phương pháp tốt nhất của chúng tôi để chứng minh ai đó đúng như họ nói vẫn là một thứ gì đó thô sơ, chẳng hạn như khi một người nổi tiếng đăng một bức ảnh có ký hiệu viết tay cho Reddit AMA — hoặc, đợi đã, rằng họ, hay nó chỉ là một deepfake?

Mặc dù các nhà phát triển như OpenAI đã phát hành các công cụ “phân loại” để phát hiện xem một đoạn văn bản có được viết bởi AI hay không, nhưng bất kỳ bước tiến nào trong công cụ CAPTCHA đều có một lỗ hổng chết người: càng nhiều người sử dụng máy tính để chứng minh họ là con người, máy tính càng thông minh hơn. khi bắt chước họ. Mỗi khi một người thực hiện bài kiểm tra CAPTCHA, họ đang đóng góp một phần dữ liệu mà máy tính có thể sử dụng để dạy chính nó làm điều tương tự. Đến năm 2014, Google phát hiện ra rằng AI có thể giải quyết các CAPTCHA phức tạp nhất bằng độ chính xác 99 phần trăm. Con người? Chỉ 33 phần trăm.

Vì vậy, các kỹ sư đã loại bỏ văn bản bằng hình ảnh, thay vào đó yêu cầu con người xác định các đối tượng trong thế giới thực trong một loạt hình ảnh. Bạn có thể đoán điều gì xảy ra tiếp theo: máy tính đã học cách xác định các đối tượng trong thế giới thực trong một loạt ảnh.

Bây giờ chúng ta đang ở trong kỷ nguyên của CAPTCHA có mặt khắp nơi được gọi là “Không có CAPTCHA reCAPTCHA” thay vào đó, đó là một bài kiểm tra vô hình chạy trong nền của các trang web tham gia và xác định nhân tính của chúng ta dựa trên hành vi của chính chúng ta — điều gì đó, cuối cùng, máy tính cũng sẽ thông minh hơn.

Melanie Mitchell, một nhà khoa học, giáo sư và tác giả của Trí tuệ nhân tạo: Hướng dẫn cho con người suy nghĩ, mô tả mối quan hệ giữa CAPTCHA và AI như một “cuộc chạy đua vũ trang” không hồi kết. Thay vì hy vọng vào một bài kiểm tra Turing trực tuyến toàn diện, cuối cùng, Mitchell nói rằng việc đẩy và kéo này sẽ trở thành một thực tế của cuộc sống. Những cáo buộc sai về bot chống lại con người sẽ trở nên phổ biến — không chỉ là một tình trạng khó khăn đặc biệt trên mạng mà còn là một vấn đề trong cuộc sống thực.

“Hãy tưởng tượng nếu bạn là học sinh trung học và bạn nộp bài và giáo viên nói, ‘Máy dò AI cho biết điều này được viết bởi một hệ thống AI. Thất bại,” Mitchell nói. “Đó gần như là một vấn đề nan giải nếu chỉ sử dụng công nghệ thôi. Vì vậy, tôi nghĩ rằng sẽ phải có một số loại quy định xã hội, pháp lý về những điều này [AI tools].”

Những vùng nước công nghệ âm u này chính là lý do tại sao Danisha hài lòng với những người theo dõi cô ấy rất hoài nghi. Giờ đây, cô ấy rơi vào tình trạng hoang tưởng và biến tính chất kỳ lạ trong các video của mình thành một phần thương hiệu của mình.

“Điều thực sự quan trọng là mọi người đang xem những hồ sơ như của tôi và hỏi, ‘Điều này có thật không?’,” cô nói. “’Nếu điều này không có thật, thì ai đang mã hóa nó? Ai đang làm nó? Họ có những ưu đãi gì?’”

Hoặc có thể đó chỉ là cái mà AI gọi là Danisha muốn bạn để suy nghĩ.





Nguồn: www.theverge.com

Bài đăng có liên quan

Twitter sẽ cho phép những người đăng ký trả phí của Blue chỉnh sửa tweet trong tối đa một giờ

Tôi đã đeo Apple Vision Pro. Đó là bản demo tai nghe tốt nhất bao giờ hết.

Blaseball đã kết thúc, The Game Band cho biết