Hành trình dạy cho những cỗ máy biết sáng tác nhạc như con người

    Kuroe,  

    Mặc dù vẫn còn đó những lo ngại về việc AI sẽ khiến cho các nhạc sĩ hết đất sống, thì các nhà nghiên cứu vẫn muốn phát triển khả năng viết nhạc cho những cỗ máy, để biến chúng trở thành một trong nhiều công cụ đắc lực của các nhạc sĩ trong tương lai.

    Một ngày năm 1980, nhạc sĩ người Mỹ David Cope gặp phải kẻ thù truyền kiếp của bất cứ ai làm trong ngành sáng tạo: creative block (rào cản sáng tạo). Để khắc phục tình trạng này, ông đã tìm cách tạo ra một công cụ - một cỗ máy có thể dõi theo tất cả những sáng tác của mình, tất cả những ý tưởng trong đầu, tìm điểm chung giữa chúng, và rồi tạo ra một bản nhạc trên nền tảng đó.

    Kết quả, David Cope đã mất 6 năm để tạo ra một phần mềm viết nhạc trên máy tính mang tên EMI (Experiments in Musical Intelligence). Phương thức hoạt động của phần mềm này là phân tích và tìm kiếm quy luật: thông qua việc phân tích các bản nhạc có sẳn thành từng phần nhỏ, tìm kiếm điểm chung, từ đó tạo ra những bản nhạc mới theo phong cách đã được phân tích. Ý tưởng của Cope là phân tích chính những bản nhạc do ông sáng tác để xác định chính xác phong cách cá nhân của riêng mình - tuy nhiên ông phát hiện ra rằng EMI còn có thể thực hiện điều này với cả những nhạc sĩ khác nữa. Chẳng hạn như, cung cấp cho EMI một lượng đủ lớn những bản nhạc của Johann Sebastian Bach, và phần mềm này sẽ xác định chính xác điều gì làm nên cái "chất" trong âm nhạc của Bach, từ đó tạo ra một bản nhạc "giả Bach" tốt đến mức những người nghe nhạc bình thường sẽ chẳng thể nhận ra tác giả thực sự của nó là ai.

    Trong một lần đứng trên giảng đường trường Đại học Stanford vào năm 1997, những sinh viên tham gia đã được giáo sư Winifred Kerner cho nghe 3 bản nhạc trên Piano: một bản của Bach, một bản do EMI sáng tác theo phong cách của Bach, và một bản do chồng bà, ông Steve Larson sáng tác. Sau đó, các sinh viên được yêu cầu phân biệt bản nhạc nào là do ai sáng tác. Kết quả là bản nhạc của Larson bị nhận nhầm là bản nhạc do máy sáng tác, trong khi bản nhạc do máy sáng tác thì lại bị nhận nhầm là bản nhạc của Bach. Đương nhiên là các nhạc sĩ hoàn toàn không hài lòng với điều này, họ cho rằng khả năng cảm nhận âm nhạc của mọi người "hỏng hết cả rồi", khi mà có thể bị một cỗ máy dễ dàng đánh lừa đến như vậy. Trong khi theo lời của các nhạc sĩ cũng như các chuyên gia về nghệ thuật, thì những bản nhạc do EMI sáng tác "chẳng hề có hồn".

    Về phía nhạc sĩ David Cope, ông cho biết: "Tôi thậm chí còn chẳng biết 'tác phẩm có hồn' là như thế nào cả. Bạn có thể tìm kiếm nó trong từ điển, nhưng những gì bạn nhận được chỉ là 'một thứ gì đó có tồn tại, nhưng không thể nào định nghĩa nổi'. Mà đối với tôi thì giải thích như thế cũng như không vậy."

    Hành trình dạy cho những cỗ máy biết sáng tác nhạc như con người - Ảnh 1.

    David Cope được coi là ông tổ của AI viết nhạc, và ông tin rằng trong tương lai, việc áp dụng đúng thuật toán cho AI sẽ mở ra một chân trời âm nhạc mới mà con người không bao giờ có thể đạt đến được. Cho đến vài năm trở lại đây, việc dạy AI viết nhạc được cho là công việc của giới học giả, những người chuyên nghiên cứu về mảng âm nhạc cổ điển. Còn ngày nay, các nhà nghiên cứu đến từ các công ty lớn như Google hay Sony đang đặt ra câu hỏi rằng: Liệu AI có thể viết nhạc Pop được hay không? Nếu được thì rèn luyện chúng như thế nào, và liệu kết quả chúng ta thu được có thể sánh với những gì mà chúng ta có thể hàng ngày nghe được trên Radio hay không? Và những nỗ lực của các chuyên gia trong ngành này cũng mở ra nhiều mối quan tâm khác, rằng trong trường hợp mà AI phát triển mạnh mẽ, liệu chúng sẽ "đè bẹp" giới nhạc sĩ, hay sẽ trở thành công cụ trong tay họ giống như các phần mềm hay nhạc cụ khác mà thôi? Liệu chúng có thể trở thành bàn đạp để cho các nhã sĩ tạo ra những tuyệt phẩm âm nhạc mới?

    Trên thực tế, việc sáng tác nhạc "bỏ qua yếu tố con người" đã tồn tại từ vài thế kỉ trước. Năm 1787, Wolfgang Mozart đã đề xuất việc tạo ra một "trò chơi âm nhạc ngẫu nhiên", nơi mà người chơi sẽ tung xúc xắc vài lần để nối những đoạn nhạc mà con số được tung ra biểu thị. Kết quả mà họ thu được là một bản nhạc hoàn chỉnh, nhưng được tạo ra một cách ngẫu nhiên từ những con số.

    Năm 1957, hai giáo sư tại trường đại học Illinois là Lejaren Hiller và Leonard Isaacson đã lập trình cho chiếc siêu máy tính Illiac để nó có thể tự tạo ra một bản nhạc. Theo đó, bộ đôi này tin rằng âm nhạc phải tuân theo những quy luật vô cùng chặt chẽ để có thể "bắt tai" người nghe, và nếu như máy tính có thể nắm được những quy luật kể trên, chúng hoàn toàn có thể viết nhạc bằng các tạo ngẫu nhiên các chuỗi các nốt nhạc tuân theo các quy luật định sẵn.

    Trong một thí nghiệm, bộ đôi này đã lập trình cho siêu máy tính Illiac tạo ra một đoạn nhạc với các quy luật sau: Bắt đầu và kết thúc bằng nốt Đô, khoảng cách giữa các nốt không quá một quãng tám, v...v... Sau đó, máy tính sẽ tiến hành viết từng nốt một, và nếu một nốt nào đó "sai luật" được tạo ra, phần mềm sẽ loại bỏ nốt đó và thử lại lần nữa.

    Kết quả mà họ thu được là bản nhạc mang tên "The Illiac Suite", và nó đã phá vỡ định kiến trước lúc bấy giờ rằng "Âm nhạc là kết tinh của những trải nghiệm và cảm xúc dữ dội, dưới dạng nhịp điệu". Hai giáo sư Hiller và Isaacson cũng tin rằng, nghiên cứu của họ khi được công bố sẽ tạo ra rất nhiều ý kiến trái chiều trong dư luận. "Chắc chắn, dư luận sẽ lại một lần nữa đặt ra câu hỏi rằng, nếu như máy tính có thể viết nhạc được, thì chúng ta đâu còn có cần đến các nhạc sĩ nữa?" - hai giáo sư đã viết trong cuốn sách "Experimental Music: Composition with an Electronic Computer" như vậy. Tuy nhiên, họ cũng khẳng định rằng "Máy tính sẽ chỉ là công cụ mà thôi. Chúng không biết mình làm đúng hay sai, hay hay dở. Chúng chỉ biết thực thi theo mệnh lệnh mà thôi. Kể cả khi máy tính có thể nhanh chóng tạo ra một bản nhạc đi chăng nữa, chúng vẫn cần có người để thẩm định kết quả cuối cùng."

    Trích đoạn trong The Illiac Suite

    "Đây chính là lý do mà một số nhạc sĩ tìm đến các lập trình viên để giúp họ 'đối thoại' với máy tính. Họ sẽ đưa ra một số thông tin, quy luật, và hướng dẫn máy tính thực thi chúng. Sau đó, kết quả cuối cùng sẽ được các lập trình viên cũng như các nhạc sĩ đánh giá thêm một lần nữa."

    Và rồi, hơn 30 năm sau, mô hình "con người hợp tác với máy tính sáng tác nhạc" đã được David Cope thực hiện. Ông tạo ra một phần mềm mang tên Emily Howell - đặt theo tên của EMI và cha của ông - với khả năng sáng tác nhạc theo phong cách riêng mình, thay vì học theo các nhà soạn nhạc khác như trước. Mỗi khi phần mềm tạo ra một bản nhạc mới, Cope sẽ đưa ra đánh giá của mình rằng ông có thích nó hay không, và máy tính sẽ thay đổi cách viết nhạc dựa theo phản hồi này. "Kết quả thu được hãy còn rất ngẫu nhiên, phần mềm cũng thay đổi dần cách viết nhạc, nhưng với tốc độ khá chậm." - David Cope chia sẻ.

    "Thực hiện điều này đủ lâu, bạn sẽ bắt đầu có cảm giác mình đang làm việc với một người nhạc sĩ khác, chứ không phải với máy móc nữa. Cảm giác đó khá là kỳ lạ."

    Tháng 9 năm 2017, một nhóm các nhà nghiên cứu tại phòng thí nghiệm của Sony tại Paris, cùng với nhạc sĩ người Pháp Benoît Carré, tung ra hai bản nhạc do AI hỗ trợ sáng tác, mang tên "Daddy's Car" theo phong cách của Beatles và "The Ballad of Mr. Shadow" theo phong cách của một số nhạc sĩ người Mỹ như Duke Ellington và George Gershwin. Họ thực hiện điều này dưới sự hỗ trợ của Flow Machines, một công cụ được thiết kế để hỗ trợ những nhạc sĩ trong quá trình sáng tác.

    Chia sẻ về việc dùng AI sáng tác nhạc

    "Tôi vẫn luôn muốn mang một chút táo bạo, một chút 'liều' trở lại với việc sáng tác nhạc" - ông François Pachet, người lãnh đạo quá trình phát triển Flow Machine tại Sony cho biết. "Tôi cảm thấy những bản nhạc của những năm 60, 70, 80 của thế kỉ trước thú vị hơn hẳn về mặt giai điệu, hòa thanh, v...v... Mặc dù tôi nghĩ, rất nhiều người khi nghe được những lời này hẳn sẽ cho rằng tôi chỉ là một lão già cổ lỗ sĩ". Pachet hiện nay là người lãnh đạo đội ngũ phát triển AI tại Spotify, và hệ thống này được đánh giá khá cao về khả năng đưa ra gợi ý nghe nhạc cho người sử dụng.

    Trong suốt quá trình làm việc với Flow Machine, Pachet đã liên hệ với rất nhiều nhạc sĩ khác nhau có hứng thú với việc phát triển AI, để thử nghiệm việc "viết nhạc bằng máy". Kết quả mà ông thu được là một Album mang tên "Hello World", với sự tham gia của nhiều nhạc sĩ thuộc nhiều thể loại như Pop, Jazz, hay nhạc điện tử. Những bài hát trong Album này đều chứa một chút gì đó "sáng tác" của máy tính, và được chính tay các nhạc sĩ "cân chỉnh" lại cho hợp ý.

    Hello Shadow, một bản nhạc do AI hỗ trợ sáng tác

    Quá trình sáng tác nhạc với Flow Machine bắt đầu từ việc nhạc sĩ sáng tác ra một "đoạn nhạc gốc", có thể là một đoạn giai điệu guitar, một đoạn hát, v...v..., và máy sẽ phân tích chúng và kết hợp với cơ sở dữ liệu sẵn có để tạo ra "một bản nhạc mới hoàn toàn". Giống như với phần mềm Emily Howell, nếu như nhạc sĩ không thích bản nhạc do máy tạo, họ có thể loại bỏ chúng, và máy sẽ ngay lập tức đưa ra một bản nhạc mới cho họ thẩm định. Nếu như các nhạc sĩ vừa ý với bản nhạc mà máy tạo, họ sẽ có thể "vọc thêm" theo ý mình, chỉnh sửa lại các nốt nhạc, đè một nhạc cụ khác lên, viết lời, v...v..

    Toàn bộ quá trình sẽ diễn ra trong khoảng thời gian từ vài giờ đến vài ngày. Mục tiêu của quá trình này là để giảm thiểu cảm giác mệt mỏi khi sáng tác nhạc, khi mà "bạn có một giao diện tương tác với Flow Machine, để có thể cho máy biết mình thích và không thích những thứ gì. Nếu như bạn cảm thấy kết quả đạt được vẫn chưa phải tốt nhất có thể, thì bạn lại tiếp tục sáng tác cùng với máy tiếp."

    Sáng tác nhà bằng FlowMachine

    Các nhạc sĩ có thể sẽ thấy thích việc hợp tác sáng tác cùng với FlowMachine, thế còn người nghe thì sao? Thực tế cho thấy những người nghe nhạc vẫn chẳng lấy gì làm hào hứng lắm với những bản nhạc được AI hỗ trợ sáng tác, tuy nhiên điều này rất dễ sẽ thay đổi trong tương lai. Một trong những cái tên nổi nhất trong Album Hello World kể trên là Kiesza, với hơn 1,8 triệu lượt nghe ca khúc của cô trên Spotify.

    Dự đoán về tương lai của những bản nhạc viết nhờ vào AI ở thời điểm hiện tại có lẽ vẫn còn hơi sớm. Tháng 2 vừa rồi, công ty Jukedeck đến từ London, đã hợp tác với hãng nhạc Hàn Quốc Enterarts để tổ chức một buổi biểu diễn ở Seoul. Buổi biểu diễn có sự tham gia của Bohyoung Kim đến từ SPICA, và nhóm nhạc nữ High Teen, tuy nhiên điểm đáng chú ý ở đây là tất cả những bài hát được biểu diễn đều được tạo ra bởi AI của Jukedeck. Buổi diễn có tổng cộng khoảng 300 khán giả tham dự, hầu hết là người của giới truyền thông. Nhìn chung, có vẻ như hầu hết mọi người vẫn chưa mấy mặn mà gì với những bài hát do AI sáng tác cả.

    Magic Man - một bản nhạc khác do AI hỗ trợ sáng tác

    Khi được hỏi về tương lai của việc AI sáng tác nhạc có được người nghe chấp nhận hay không, Pachet cho biết: "Giờ đây cái cách mà mọi người nghe nhạc không còn giống như chúng tôi trước đây nữa. Có quá nhiều lựa chọn âm nhạc cho mọi người ở thời điểm hiện tại, và giờ mọi người chỉ mất vài giây để quyết định xem họ có thích bản nhạc này hay không mà thôi. Thói quen này hoàn toàn không tồn tại ở thời của chúng tôi."

    Một trong những cách để tạo ra tương lai cho những "cỗ máy viết nhạc" là việc coi AI giống như một nhạc cụ khác. Điều này sẽ giúp giảm bớt những nỗi lo không đáng có về việc AI sẽ "cướp hết đất sống" của nhạc sĩ, giống như việc Robot cướp việc làm của con người vậy. Giống như những gì Pachet chia sẻ về việc có nên ghi AI vào phần tác giả sáng tác hay không: "FlowMachine chỉ là công cụ mà thôi. Công cụ thì không phải là tác giả sáng tác. Nếu không, chắc danh sách tác giả nên có cả Guitar, Piano, hay thậm chí cả cái Micro nữa. Các bạn cần phải coi AI là một công cụ hỗ trợ mình."

    Google hiện cũng đang tập trung vào việc phát triển các "công cụ" như thế. Hồi đầu tháng, đội ngũ Google Magenta (nghiên cứu các công cụ AI hỗ trợ sáng tạo cho con người) đã trình diễn về một công cụ magn tên NSynth Super, một loại touchpad tạo ra âm thanh mới dựa trên 2 âm thanh có sẵn (hãy thử tưởng tượng việc nghe một thứ âm thanh lai giữa trumpet và harmonica). Khi được phỏng vấn, kỹ sư Jesse Engel tại Magenta, đã so sánh những gì AI có thể làm giúp các nhạc sĩ cũng giống như những gì mà các nhạc cụ từng làm được trong lịch sử vậy. Ông nói về việc âm ly từng được tạo ra chỉ để kích tiếng đàn guitar lên cho to mà thôi, và rồi việc dùng chúng để tạo thành tiếng distortion là kết quả đến từ sự "nghịch ngọm" của những người làm nhạc.

    "Và nếu như những nhà phát triển có thể đưa công cụ của mình vào tay đủ nhiều người, thì họ sẽ có thể thành công."

    Tham khảo Gizmodo

    Tin cùng chuyên mục
    Xem theo ngày