Các ứng dụng trí tuệ nhân tạo (AI) có thể tạo ra các bài hát, thơ, tiểu luận, ảnh kỹ thuật số, bản vẽ và hoạt hình... Sự phát triển của AI quá nhanh trong lĩnh vực này có nguy cơ vượt khỏi tầm kiểm soát và gây tổn hại.
- Chẳng có gì gọi là "Trí tuệ nhân tạo", tất cả chỉ là thuật ngữ tiếp thị
- Google cảnh báo về tác động của trí tuệ nhân tạo tới xã hội
- Cảnh báo đáng sợ liên quan đến trí tuệ nhân tạo
- Trí tuệ nhân tạo đối mặt nhiều áp lực
- Để chiến thắng cuộc đua AI, Trung Quốc đưa chương trình học về trí tuệ nhân tạo vào bậc tiểu học
ChatGPT là hiện thân của rất nhiều kiến thức, bao gồm cả vấn đề kinh doanh lẫn địa chính trị. Nó có thể thảo luận một cách thuyết phục về việc khai thác khoáng sản ở Papua New Guinea, hay về một công ty bán dẫn của Đài Loan (TSMC).
Công ty khởi nghiệp OpenAI mới đây đã phát hành mô hình trí tuệ nhân tạo (AI) mạnh mẽ hơn có tên gọi GPT-4, tạo tiền đề để những công nghệ có tư duy giống con người ngày càng phát triển. Đây được coi là “cánh cổng” để bước vào sự nghiệp luật và y khoa ở Mỹ. Ứng dụng này thậm chí còn có thể tạo ra các bài hát, bài thơ và bài tiểu luận. Các mô hình AI sáng tạo tương tự như vậy có khả năng tạo ra ảnh kỹ thuật số, bản vẽ và hoạt hình.
GPT-4 chính là một dạng AI mang tên Các mô hình ngôn ngữ lớn (LLM), được sử dụng để khám phá các sắc thái của ngôn ngữ tự nhiên, cải thiện khả năng hiểu và tạo văn bản của máy cũng như tự động hóa các tác vụ như nhận dạng giọng nói và dịch máy.
Nhiều “gã khổng lồ” công nghệ như Alphabet, Amazon và Nvidia đều đã đào tạo mô hình LLM của riêng mình, chẳng hạn như Palm, Megatron, Titan và Chinchilla.
Tuy nhiên, một số cường quốc trên thế giới cũng bắt đầu lo lắng về mối đe dọa hiện hữu do AI tạo ra. Các chính phủ ở Mỹ, châu Âu và Trung Quốc đều cân nhắc các quy định mới để kiểm soát tầm ảnh hưởng của AI. Người ta lo rằng, sự phát triển của trí tuệ nhân tạo quá nhanh sẽ có nguy cơ vượt khỏi tầm kiểm soát và gây tổn hại, thậm chí là hủy diệt xã hội loài người.
Sự bùng nổ của phần mềm AI bắt đầu vào đầu những năm 2010, khi một kỹ thuật phần mềm có tên là “Deep learning” (học sâu) trở nên phổ biến, kết nối bộ dữ liệu khổng lồ và mạng máy tính, cải thiện đáng kể khả năng nhận dạng hình ảnh, xử lý âm thanh và trò chơi điện tử.
Dần dần, các mạng trí tuệ nhân tạo có xu hướng được nhúng trong phần mềm có chức năng rộng hơn, chẳng hạn như ứng dụng email và những người không phải là lập trình viên hiếm khi tương tác trực tiếp với những mạng này. Các trò chơi ảo được hình thành và “trợ lý ảo” còn có thể thắng cả những người chơi giỏi nhất. Và điều này đã được chứng minh khi Lee Sedol, một trong những kỳ thủ cờ vây giỏi nhất thế giới, đã thua cuộc trong một ván cờ trên ứng dụng phần mềm AlphaGo của Alphabet vào năm 2016.
ChatGPT hiện đang cho phép người dùng internet trải nghiệm nhiều điều thú vị với những cải tiến vượt bậc và các tác vụ trước đây chỉ có trong lĩnh vực trí tuệ của con người.
Kỹ sư Jonas Degrave của công ty nghiên cứu trí tuệ nhân tạo DeepMind thuộc sở hữu của Alphabet đã chỉ ra rằng ChatGPT có thể hoạt động giống như thiết bị đầu cuối dòng lệnh máy tính, và hoàn toàn đảm nhận các công việc như biên dịch và chạy các chương trình một cách chính xác.
Mô hình LLM thành công nhờ sự kết hợp của 3 yếu tố cơ bản: lượng dữ liệu khổng lồ, thuật toán có khả năng học hỏi và sức mạnh tính toán. Chi tiết về cấu trúc và chức năng của GPT-4 vẫn chưa được tiết lộ công khai, nhưng thông tin chi tiết về GPT-3 đã được OpenAI xuất bản vào năm 2020.
TS. Yoshua Bengio, Giám đốc khoa học của Mila, một viện nghiên cứu AI nổi tiếng ở Quebec, cho biết: GPT-3 có hàng trăm lớp, hàng tỷ trọng lượng và được đào tạo trên hàng trăm tỷ từ vựng. Ngược lại, phiên bản đầu tiên của GPT, được tạo cách đây 5 năm, chỉ có kích thước bằng một phần mười nghìn.
Theo TS. Bengio, sự tăng trưởng mạnh mẽ này sẽ không thể tiếp tục mãi mãi. Các yếu tố đầu vào của LLMS - dữ liệu, sức mạnh tính toán, điện, lao động lành nghề - đều tốn kém, sử dụng nguồn năng lượng khổng lồ và ngốn rất nhiều tiền bạc.
Nhưng ngay cả trong trường hợp LLMS ngừng cải thiện trong năm nay và OpenAI không tồn tại thì sức mạnh của các mô hình ngôn ngữ lớn sẽ vẫn còn. Dữ liệu và các công cụ để xử lý nó được phổ biến rộng rãi, ngay cả khi quy mô tuyệt đối mà OpenAI đạt được vẫn còn đắt đỏ. Việc triển khai nguồn mở, khi được đào tạo cẩn thận và có chọn lọc, đã bắt kịp hiệu suất của GPT-4.
Song, khả năng của những mô hình lớn nhất đã vượt xa sự hiểu biết và kiểm soát của người tạo ra chúng. Điều đó tạo ra rủi ro đáng quan ngại./.
Theo The Economist
NỔI BẬT TRANG CHỦ
Google: Giải được bài toán 10 triệu tỷ tỷ năm chỉ trong 5 phút, chip lượng tử mới là bằng chứng về đa vũ trụ
Điều đáng ngạc nhiên hơn cả là nhiều người trên cộng đồng mạng thế giới lại đang đồng tình với kết luận của Google.
Gần 2025 rồi mà vẫn dùng USB để lưu công việc thì quả là lỗi thời