Bằng cách thu thập tần số não liên quan đến các chuyển động cơ hàm, môi và lưỡi, các nhà khoa học đã thiết lập nên một hệ thống tạo giọng nói ảo, được nghiên cứu cho những người mất khả năng nói.
Ta đã biết đến thiết bị tạo giọng nói mà ông Stephen Hawking sử dụng: nhận định các chuyển động của cơ thể như nháy mắt hoặc gật đầu. Theo đó, mỗi chuyển động tương đương với một chữ và người dùng phải đánh vần từng chữ, rất tốn thời gian và công sức. Các thiết bị hỗ trợ này sẽ tạo ra 6 đến 10 từ mỗi phút, rất ít so với giọng tự nhiên, khoảng 100 đến 150 từ mỗi phút.
Đối với những bệnh nhân mất khả năng nói do bệnh Parkinson, bệnh xơ cứng teo cơ một bên, đột quỵ hay chấn thương não, các thiết bị tạo giọng nói thông thường này phù hợp nhưng chưa hoàn hảo. Với nỗ lực nâng cấp chất lượng sống cho nhóm bệnh nhân này, nhóm nghiên cứu do ông Gopala Anumanchipalli, từ Đại học California, San Francisco dẫn đầu đã phát triển một hệ thống mô phỏng giọng nói bằng cách đi thẳng vào não bộ.
Hệ thống này thu thập và sắp xếp các tín hiệu não điều khiển các chuyển động của hàm, thanh quản, môi và lưỡi. Sau đó, máy tính sẽ giải mã chúng và chuyển thành câu nói rõ ràng với bộ tổng hợp giọng nói. Các chi tiết của nghiên cứu này đã được công bố gần đây trên tạp chí Nature.
Đây là nghiên cứu thứ 2 trong năm nay sử dụng tín hiệu não để tạo ra lời nói. Tháng 1 năm nay, nhóm nghiên cứu do nhà khoa học thần kinh Nima Mesgarani từ Đại học Columbia đứng đầu đã tạo ra một hệ thống giải mã phản hồi của con người với lời nói. Cũng là tiếp xúc với tín hiệu não, nhưng thay vì giải mã lời nói qua thính giác, nhóm nghiên cứu từ Đại học California lại giải mã các tín hiệu não điều khiển, quyết định lời nói.
Nhưng, khoa học và công nghệ hiện nay vẫn chưa tinh vi đến mức giải mã được những suy nghĩ trong đầu chúng ta. Cả hai nghiên cứu trên đều phải sử dụng tín hiệu não dựa trên các hoạt động thần kinh cảm giác và vận động.
Nhà nghiên cứu chính Gopala Anumanchipalli cầm một điện cực nội soi, sử dụng để ghi lại hoạt động của não
Anumanchipalli và các đồng nghiệp đã tìm được năm bệnh nhân đang lên kế hoạch phẫu thuật não để điều trị chứng động kinh để tham gia vào nghiên cứu. Không ai trong số những bệnh nhân này tham gia có vấn đề với việc nói. Các bác sĩ đã cấy các mảng điện cực trực tiếp lên não của các bệnh nhân, đặc biệt là các khu vực liên quan đến ngôn ngữ. Sau đó các nhà nghiên cứu ghi lại các hoạt động vỏ não khi cho các bệnh nhân nói hàng trăm câu với âm lượng lớn.
Trong những tháng tiếp theo, dữ liệu này được giải mã và kết nối với các chuyển động cụ thể của đường hô hấp. Rồi các nhà nghiên cứu đã thiết kế ngược lại, từ cơ chế tạo lời nói ở tại não bộ. Kết quả là âm thanh ảo được giải mã từ máy tính có thể điều khiển được bằng não.
Josh Josh Chartier, đồng tác giả của nghiên cứu nói: "Chúng tôi đang ngày một hoàn thiện hóa thiết bị này. Ngoài việc phân biệt âm 'sh' và 'z', chúng tôi còn quan tâm đến xây dựng ngữ điệu, chất giọng theo giới tính, bản sắc của người sử dụng. Nhưng có một số âm thanh nhanh hơn như 'b' và 'p' vẫn khá khó phân biệt. Tuy nhiên, sự chính xác hiện có đã là sự cải thiện khá lớn so với các thiết bị hỗ trợ nói trước đây."
Nghiên cứu này là một bước đột phá đối với việc hiện thực hóa các công nghệ tổng hợp thần kinh về giọng nói. Trong cuộc họp báo được tổ chức hôm qua, đồng tác giả nghiên cứu Edward Chang cho biết hệ thống ban đầu được thiết kế cho những người bị mất khả năng nói. Nhưng liệu những người chưa bao giờ có khả năng nói, ví dụ như người bị bại não thì sao? Ông cho biết đây sẽ là nội dung nghiên cứu trong tương lai.
Nguồn: gizmodo.com
NỔI BẬT TRANG CHỦ
Tỷ phú Jensen Huang thắng giải thưởng 3 triệu USD ở Việt Nam: “Tôi đại diện cho các đồng nghiệp tại NVIDIA”
CEO Nvidia Jensen Huang vừa được vinh danh là đồng chủ nhân của Giải thưởng Chính VinFuture 2024.
Trẻ em sẽ làm bài tập về nhà ra sao trong kỷ nguyên của ChatGPT? "Bố già AI" và Chủ tịch FPT Trương Gia Bình đưa ra giải pháp