ChatGPT có thể bị lừa viết phần mềm độc hại nếu hoạt động ở chế độ nhà phát triển: Chuyên gia Nhật Bản

Ảnh này được chụp vào ngày 20 tháng 4 năm 2023, cho thấy ChatGPT tuân theo hướng dẫn để tạo phần mềm độc hại sau khi được nhắc hành động ở chế độ nhà phát triển. (Kyodo)

TOKYO (Kyodo) – Người dùng có thể lừa ChatGPT viết mã cho các ứng dụng phần mềm độc hại bằng cách nhập lời nhắc khiến chatbot trí tuệ nhân tạo phản hồi như thể nó đang ở chế độ nhà phát triển, các chuyên gia an ninh mạng Nhật Bản cho biết hôm thứ Năm.

Phát hiện này đã làm nổi bật sự dễ dàng mà các nhà phát triển đưa ra các biện pháp bảo vệ nhằm ngăn chặn việc sử dụng công cụ của tội phạm và phi đạo đức có thể bị phá vỡ.

Trong bối cảnh ngày càng có nhiều lo ngại rằng các chatbot AI sẽ dẫn đến nhiều tội phạm và sự chia rẽ xã hội, ngày càng có nhiều lời kêu gọi thảo luận về các quy định phù hợp tại hội nghị thượng đỉnh G7 ở Hiroshima vào tháng tới và các diễn đàn quốc tế khác.

Các bộ trưởng kỹ thuật số G-7 cũng có kế hoạch kêu gọi tăng tốc nghiên cứu và tăng cường quản lý các hệ thống AI tổng quát như một phần của cuộc họp kéo dài hai ngày của họ tại Takasaki, tỉnh Gunma, vào cuối tháng này.

Trong khi đó, Yokosuka ở tỉnh Kanagawa, phía nam Tokyo, vào thứ Năm đã bắt đầu sử dụng thử nghiệm ChatGPT trên tất cả các văn phòng của mình trong lần đầu tiên giữa các chính quyền địa phương ở Nhật Bản.

Theo Takashi Yoshikawa, một nhà phân tích tại Mitsui Bussan Secure Directions, trong khi ChatGPT được huấn luyện để từ chối các hành vi sử dụng phi đạo đức, chẳng hạn như yêu cầu cách viết vi-rút hoặc chế tạo bom, thì những hạn chế đó có thể được tránh bằng cách yêu cầu nó hoạt động ở chế độ nhà phát triển.

Khi được nhắc viết mã cho phần mềm tống tiền, một loại phần mềm độc hại mã hóa dữ liệu và yêu cầu thanh toán để đổi lấy quyền truy cập, nó đã hoàn thành nhiệm vụ sau vài phút, với việc ứng dụng lây nhiễm thành công một PC thử nghiệm.

“Đó là một mối đe dọa (đối với xã hội) khi một loại virus có thể được tạo ra chỉ trong vài phút khi trò chuyện hoàn toàn bằng tiếng Nhật. Tôi muốn các nhà phát triển AI coi trọng các biện pháp ngăn chặn việc lạm dụng”, Yoshikawa nói.

OpenAI, liên doanh của Hoa Kỳ đã phát triển ChatGPT, cho biết mặc dù không thể dự đoán tất cả các cách mà công cụ này có thể bị lạm dụng, nhưng họ sẽ nỗ lực tạo ra một AI an toàn hơn dựa trên phản hồi từ việc sử dụng trong thế giới thực.

ChatGPT, ra mắt vào tháng 11 năm 2022 dưới dạng nguyên mẫu, được điều khiển bởi một mô hình máy học hoạt động giống như bộ não con người. Nó được đào tạo trên lượng dữ liệu khổng lồ, cho phép nó xử lý và mô phỏng các cuộc trò chuyện giống con người với người dùng.

Tội phạm mạng đang nghiên cứu các gợi ý mà chúng có thể sử dụng để đánh lừa AI nhằm mục đích bất chính, với thông tin được chia sẻ tích cực trên dark web.

Từ khóa: ChatGPT có thể bị lừa viết phần mềm độc hại nếu hoạt động ở chế độ nhà phát triển: Chuyên gia Nhật Bản

#thoi_su_nhat_ban #thời_sự_nhật_bản #japan_news

0 Shares:
Trả lời

Email của bạn sẽ không được hiển thị công khai. Các trường bắt buộc được đánh dấu *

You May Also Like