Liệu AI sẽ sớm thông minh bằng hoặc hơn con người?

0
87

Sự xuất hiện của các chatbot AI cho phép mọi người có thể lên kế hoạch cho một buổi nghỉ cùng gia đình, diễn tập các cuộc trò chuyện đầy thử thách có thể đối diện trong cuộc sống, tóm tắt các bài báo học thuật dày đặc hay giải thích về các bài tập ở cấp trung học,…

Nhưng liệu AI có thể “vượt qua suy nghĩ con người?”, bởi đó sẽ là một bước nhảy vọt của AI. Tuy nhiên, trong những tháng gần đây, một số chuyên gia AI nổi tiếng đã bắt đầu gióng lên hồi chuông cảnh báo về những gì sắp xảy ra.
Về cơ bản, công nghệ hỗ trợ ChatGPT được gọi là mô hình ngôn ngữ lớn (LLM) được đào tạo để nhận dạng các mẫu trong số lượng văn bản đáng kinh ngạc, với phần lớn mọi thứ trên internet. Các hệ thống này xử lý bất kỳ chuỗi từ nào chúng được đưa ra và dự đoán những từ nào sẽ tiếp theo. Chúng là ví dụ tiên tiến về “trí tuệ nhân tạo”, một mô hình được tạo ra để giải quyết một vấn đề cụ thể hoặc cung cấp một dịch vụ cụ thể. Trong trường hợp này, LLM đang học cách trò chuyện tốt hơn, nhưng chúng không thể học các nhiệm vụ khác.
Tuy nhiên, trong nhiều thập kỷ, các nhà nghiên cứu đã đưa ra giả thuyết về một dạng học máy cao hơn được gọi là “trí thông minh tổng hợp nhân tạo”, hay AGI. Đối với AGI, phần mềm có khả năng học bất kỳ nhiệm vụ hoặc chủ đề nào. Nó giống như một cỗ máy có thể làm bất cứ điều gì mà bộ não con người có thể làm.
Vào tháng 3 năm nay, một nhóm các nhà khoa học máy tính của Microsoft đã xuất bản một bài nghiên cứu dài 155 trang tuyên bố rằng một trong những hệ thống AI thử nghiệm mới của họ đang thể hiện “những tia sáng của trí tuệ nhân tạo nói chung”. Điều này đặt ra câu hỏi rằng liệu nó có thể “đưa ra những câu trả lời và ý tưởng giống con người mà không cần được lập trình sẵn trong đó?”.

Sau đó một tháng, nhà khoa học máy tính Geoffrey Hinton – người tiên phong về mạng lưới thần kinh và được mệnh danh là một trong những “Bố già của AI” – đã nghỉ việc tại Google để có thể thoải mái nói về sự nguy hiểm của AGI. Kết quả là, trong tháng 5, một nhóm các nhà lãnh đạo ngành (bao gồm cả Hinton) đã đưa ra một tuyên bố ngắn gọn cảnh báo rằng AGI có thể là mối đe dọa hiện hữu đối với nhân loại ngang hàng với “đại dịch và chiến tranh hạt nhân” nếu chúng ta không đảm bảo rằng các mục tiêu của nó phù hợp với mục tiêu mà chúng ta đặt ra.
“Điều này thực sự có thể thông minh hơn con người. Rõ ràng, nó đã đi quá xa, điều mà mọi người tưởng rằng sẽ phải mất 30-50 năm nữa, hoặc xa hơn mới có thể đạt được”, Hinton cho biết.
Tất nhiên, để nói đến vấn đề “tận thế” có vẻ là quá xa và nhiều người cho rằng chúng đang bị “phóng đại”. Mặc dù vậy, một khi những cỗ máy có thể suy nghĩ tốt hơn bộ não con người xảy ra, mọi thứ sẽ ra sao?
Có hai lý do khiến mối lo ngại về AGI đột nhiên trở nên hợp lý và cấp bách hơn. Đầu tiên là tốc độ bất ngờ của những tiến bộ AI gần đây. Hinton chia sẻ: “Hãy nhìn xem 5 năm trước và bây giờ như thế nào. Hãy nhìn vào sự khác biệt và nhân rộng nó về phía trước. Điều đó thật đáng sợ”.
Thứ hai là sự không chắc chắn. Trong một cuộc phỏng vấn với CNN, Giáo sư khoa học máy tính tại Đại học California, Berkeley, Stuart Russell – đồng tác giả cuốn “Trí tuệ nhân tạo: Phương pháp tiếp cận hiện đại” – đã không thể giải thích hoạt động bên trong của LLM ngày nay. Ông thừa nhận: “Nghe có vẻ kỳ lại. Tôi có thể chỉ bạn cách làm LLM, nhưng chúng hoạt động như thế nào thì chúng tôi không biết. Chúng tôi không biết liệu nó có điều gì không. Chúng tôi không biết liệu chúng có lý luận hay không. Chúng tôi không biết liệu chúng có những mục tiêu nội bộ riêng đã học được hay không, hoặc chúng có thể làm gì”.