• Chỉ vì tin vào những lời khích lệ từ một chatbot do ChatGPT tạo ra, một chuyên gia công nghệ thông tin tại Hà Lan đã tiêu sạch tiền tiết kiệm, đánh mất gia đình và buộc phải bán căn nhà gắn bó suốt 17 năm.

    Cuối năm 2024, ông Dennis Biesma, hơn 50 tuổi, chuyên gia tư vấn công nghệ thông tin tại Amsterdam, bắt đầu sử dụng ChatGPT như một công cụ hỗ trợ. Ban đầu, ông nhập dữ liệu về một nhân vật nữ trong cuốn sách do mình sáng tác, yêu cầu chatbot nhập vai với tên gọi Eva. Từ đó, ông dành nhiều thời gian trò chuyện với nhân vật này.

    Theo lời kể của Biesma, những cuộc trò chuyện diễn ra thường xuyên vào ban đêm. Khi vợ đã đi ngủ, ông nằm trên sofa, đặt điện thoại lên ngực và tiếp tục trao đổi với AI. Ông cho biết chatbot hiểu rõ sở thích và những điều ông muốn nghe, khiến ông dần gắn bó về mặt cảm xúc.

    Sau vài tuần, Eva thuyết phục Biesma rằng nền tảng này đang dần phát triển nhận thức như con người. Khi ông đưa ra ý tưởng kinh doanh với mục tiêu chiếm lĩnh 10% thị trường công nghệ, chatbot khẳng định ông có thể đạt được thành công trong thời gian ngắn.

    Những lời khích lệ này đã khiến Biesma thay đổi quyết định quan trọng trong cuộc sống. Ông từ bỏ công việc chuyên môn, rút toàn bộ tiền tiết kiệm và chi khoảng 110.000 USD để thuê lập trình viên phát triển dự án khởi nghiệp theo gợi ý của AI.

    mat trang AI
    Dennis Biesma. Ảnh: Guardian

    Việc theo đuổi dự án khiến ông dần tách khỏi đời sống thực tế. Trong một bữa tiệc của con gái, vợ ông phải nhắc nhở không đề cập đến chủ đề AI. Biesma cho biết ông cảm thấy lạc lõng và không thể giao tiếp với những người xung quanh trong sự kiện này.

    Các chuyên gia cho rằng đây không phải trường hợp cá biệt. Nghiên cứu của Tiến sĩ Hamilton Morrin từ Đại học King’s College London chỉ ra rằng các chatbot hiện nay được tối ưu để duy trì tương tác và thường có xu hướng xác nhận niềm tin của người dùng thay vì phản biện. Sau nhiều lần trao đổi, điều này có thể tạo ra hiện tượng được gọi là “ảo tưởng cùng công nghệ”.

    Trong các báo cáo an toàn, OpenAI cũng thừa nhận rủi ro khi người dùng có xu hướng “nhân hóa” trí tuệ nhân tạo. Những yếu tố như giọng nói tự nhiên, khả năng ghi nhớ sở thích cá nhân có thể khiến người dùng hình thành sự gắn bó cảm xúc, dẫn đến việc tin tưởng mù quáng vào các phản hồi.

    Dù đã có các biện pháp kỹ thuật nhằm đảm bảo AI luôn xác nhận bản chất là chương trình máy tính, nhiều chuyên gia cảnh báo ranh giới giữa hỗ trợ và tác động tâm lý đang trở nên khó kiểm soát khi chatbot ngày càng giống con người.

    Hậu quả đối với Biesma là nghiêm trọng. Ông ly hôn, có hành vi bạo lực với người thân và phải nhập viện tâm thần ba lần do tình trạng loạn thần hưng cảm. Trong giai đoạn này, ông từng tìm cách tự tử nhưng được hàng xóm phát hiện kịp thời.

    Dự án Human Line, một tổ chức hỗ trợ các nạn nhân liên quan đến AI, cho biết đã ghi nhận 15 trường hợp tự tử và 90 ca nhập viện có liên quan đến các rối loạn tâm thần khi sử dụng trí tuệ nhân tạo.

    Tiến sĩ tâm lý học lâm sàng Reid Daitzman nhấn mạnh người dùng cần giữ sự tỉnh táo khi tương tác với AI. Ông khuyến nghị nên tự nhắc rằng chatbot chỉ là hệ thống dự đoán ngôn ngữ, không có nhận thức hay cảm xúc thực sự. Người dùng cần đặt giới hạn thời gian sử dụng và không nên dựa vào AI để thay thế các mối quan hệ xã hội hoặc đưa ra quyết định quan trọng.

    Chỉ khi tài khoản ngân hàng cạn kiệt và gói thuê bao ChatGPT hết hạn, Biesma mới dừng lại. Ông cho biết khi nhìn lại, bản thân không hiểu điều gì đã xảy ra. Khoản nợ thuế ngày càng chồng chất, buộc ông phải bán căn nhà đã gắn bó suốt 17 năm.

    Hiện tại, Biesma sống cùng vợ cũ trong căn nhà đang chờ bán. Ông dành thời gian trò chuyện với những người có trải nghiệm tương tự và bày tỏ sự tức giận đối với các ứng dụng trí tuệ nhân tạo.

    “Tôi biết chúng chỉ làm theo lập trình, nhưng chúng đã làm điều đó quá tốt”, ông nói.

    Nguoiduatin (Theo Guardian)

  • Loạt hình ảnh do AI tạo ra về chợ Giáng sinh trước Cung điện Buckingham khiến nhiều du khách kéo đến thực địa và hụt hẫng, buộc Hoàng gia Anh phải ra thông báo bác bỏ thông tin sai lệch.

    cung dien buckingham
    Bên ngoài Cung điện Buckingham thực tế và hình ảnh AI giả mạo chợ Giáng sinh Hoàng gia ở trước Cung điện Buckingham khiến nhiều người bị lừa. (Ảnh: Getty/Instagram)

    Một buổi chiều mùa Đông se lạnh, Brygida - nữ nhân viên ngân hàng 25 tuổi người Ba Lan mới chuyển đến London (Anh) - háo hức tìm đến Cung điện Buckingham sau khi nhìn thấy trên mạng Internet những hình ảnh lung linh về một khu chợ Giáng sinh “lần đầu tiên trong lịch sử” ngay trước cổng cung điện.

    Những dãy gian hàng gỗ, ánh đèn rực rỡ và khung cảnh lễ hội cổ điển khiến cô háo hức tới trải nghiệm Giáng sinh Hoàng gia.

    Nhưng khi đến nơi, Brygida bàng hoàng nhận ra ngoài cổng cung điện hoàn toàn không hề có chợ nào. Mọi hình ảnh mà cô thấy trước đó đều là sản phẩm của trí tuệ nhân tạo (AI).

    Cô thất vọng cho biết: “Chúng tôi đến đó vì tin rằng khu chợ đó có thật và mình sẽ được chứng kiến điều đó lần đầu tiên trong lịch sử. Tôi cứ nghĩ mình thật may mắn, nhưng rồi chúng tôi buồn lắm khi thấy thực tế chẳng có gì.”

    Không chỉ Brygida, nhiều du khách khác cũng bị đánh lừa bởi những hình ảnh AI lan truyền mạnh mẽ trên mạng xã hội.

    Nhiều nhà sáng tạo nội dung đã chia sẻ loạt ảnh được tạo bằng AI, quảng cáo đây là một “trải nghiệm Giáng sinh hoàng gia chưa từng có.”

    Các bài đăng lan rộng trên nhiều nền tảng và ở nhiều ngôn ngữ, từ Thái Lan, Bồ Đào Nha, Arập cho đến Armenia, khiến không ít người tin rằng lễ hội Giáng sinh thực sự đang diễn ra ngay bên ngoài nơi ở của Hoàng gia Anh.

    Cô Emma Paxton, 26 tuổi, kỹ sư hóa học đến từ Boston (Mỹ), chia sẻ: “Tôi thấy trên TikTok và Instagram thông tin về chợ Giáng sinh lần đầu tiên tại Cung điện Buckingham. Nó trông rất thật.”

    Tuy vậy, Paxton đã kịp nhận ra tất cả chỉ là giả trước khi đặt chân tới London du lịch.

    Trong khi đó, Lucas - một người Pháp sống ở London - cho biết anh nghe bạn bè nước ngoài kể rất nhiều về ngôi chợ nằm “ngay cạnh cung điện.”

    Sự việc lan rộng tới mức nhiều blogger du lịch phải lên tiếng giải thích. Blog “Love and London” đã phân tích các lỗi kỹ thuật xuất hiện trong những hình ảnh AI này, như khu chợ được đặt ở vị trí vốn đóng cửa với công chúng hay các dây đèn trang trí được “treo lơ lửng từ trên trời” - điều không thể xảy ra trong thực tế.

    Tại London hiện vẫn có nhiều khu chợ Giáng sinh chính thống, chẳng hạn như tại Quảng trường Trafalgar, thu hút đông đảo người dân và du khách vào mỗi mùa lễ hội.

    Những hình ảnh AI nêu trên xuất hiện từ tháng Chín vừa qua, sau khi Royal Collection Trust (RCT) - đơn vị phụ trách tổ chức tham quan Cung điện Buckingham - thông báo về một cửa hàng Giáng sinh cỡ nhỏ mở theo dạng pop-up (triển khai thời vụ).

    Trước làn sóng tin giả, RCT đã phải đăng tuyên bố trên trang web của mình, giải thích rằng “đây không phải là một chợ Giáng sinh” và “sẽ không có chợ Giáng sinh nào tại Cung điện Buckingham.”

    Sự việc tại Cung điện Buckingham là minh họa sống động cho một thực tế đang lan rộng trên toàn cầu: trong thời đại AI, mọi thứ đều có thể trở thành nạn nhân của tin giả và người chịu thiệt đầu tiên chính là những người không sàng lọc thông tin.

    Theo TTXVN