AI real-time music make
proposed by
Prof.Satoshi Nishimura
/ Jichi Med Univ(JAPAN)
E-mail:
If interested (snishi-tky(a-mark)ninus.ocn.ne.jp )
Back to top
双方向性作曲AI「奏でるくん」 real time music make
1・ライブラリ学習と理論 library and theory
音楽のおける「気持ちよさ」は数学的に解きづらい。理論も曖昧。
人はたくさんの音楽を「学習」しながら、「気持ちよさ」を定義してる。
音楽を作るためには、全部を学習・推論で作るよりも、
一定の過去ライブラリを使いながら理論とあわせて合成するほうがいい。
Music cannot be science.
Learning from historical data, and real time adjustment is a kay.
2・双方向性 interactive
聞いてる人が「アリ」「ナシ」を入力しながら、音楽をリアルタイムで合成すれば
より面白いものがつくれるはず
Audiences say yes and no.
AI will adjust music according to the audiences's preferences.
3・既存の曲やその場演奏をライブラリ化 library from any data
データをどんどんライブラリに組み込んでいく。簡単に。
Real-time play and music scores are analyzed synchronously.
生成アルゴリズム algorhythm
既存曲から、
1・スケール scaling
解析結果はわかりやすく見える化
2・コード進行 coding
3・メロディモチーフ melody motif
4・リズムパターン rhythm pattern
を分離しライブラリ化する。
そのライブラリをまぜつつ、一定の音楽理論と、ランダム性をあわせて、
次のコード・スケール・モチーフを提案し、音符をひとつずつきめてる。
リアルタイム演算中にもユーザーがわはライブラリの変更や、コードの変更が可能で、
双方向性とリアルタイム性を両立している。
つまり、
譜面を一切使わない
時間補正をかけないでも運用可能で、人間味・グルーブがある
コードラインがいつでも変更できる
人の嗜好をデータベースにしAIが提案をしてくる
鍵盤をつかわないでジョイスティックボタンでも曲がつくれる
You can make music only by joystick operation.
Movie:
how it runs
Movie:
how it runs
Movie:
how it runs
Movie:
how it runs
ソフトウェアUI
Back to top