横浜開港記念コンサート(古楽器の響きで味わうモーツァルト) 横浜開港記念会館講堂で行われた、古楽器によるモーツァルトの協奏曲と交響曲ーⅡ演奏会を聴いてきました。曲目はピアノ協奏曲 第23番 イ長調 KV.488交響曲 第39番 変ホ長調 KV.543バセット・クラリネット協奏曲 イ長調 KV.622の3曲です。演奏はアンサンブル山手バロッコ、ソリストは荒川 智美(フォルテピアノ)満江 菜穂子(バセット・クラリネット)です。いずれの演奏題目も、モーツァルトの大人気作品とは言えないかも知れないが、私の大好きな名曲揃いです。ずっと楽しみにしてました。 lifestye/music/concert mozart
Jetson nano 2GBで自作Jetbot Nvidia Jetson nano 2GBでjetbotを自作した。手持ちのありあわせの部品を使った究極のDIYだが、チャント自作の道路を走るのがすごい。猫も、なんだろうと見てます。JetBotサイトから最新版の2GB用0.4.2 jetbot-042_nano-2gb-jp441.zipをダウンロードしてEtcherで128GBのMicro SDに書き込む。このOSイメージでJetBotを起動した。USB Wi-Fiは手持ちの、使っていなかったEDUP AC600を使用してインストールできた。USB Wi-FiはJetson nanoでうまく使用できないのもあるので要注意。 ITTech/AI python pytorch jetson nano jetbot
JetSpeech(Jetson nanoが日本語を喋る) Nvidia Jetson Nano 2GBで日本語音声を話すようにするプロジェクトを開始した。ESPNET-TTS(Text to speech)を参考にして、ホストPCで動かしていた日本語音声生成のInferenceをJetson Nanoに移行した。Tacotron2とMulti-band MelGANを使用して、音声生成スピードを上げるようにした。Pytorch1.7でDockerを使用せず必要なモジュールをインストールした。レスポンスはホストPCよりかなり遅いが、ちゃんと動作している。 ITTech/AI wavegan tacotron nvidia JetSpeech ESPNET TTS
NVIDIA JETSON NANO 2GBでPytorch 1.7 Nvidia Jetson nano 2GB 開発KITでPytorch 1.7をインストールして使ってみた。左のRaspberry Piと比べると一回り大きいSBCボードだ。巨大なヒートシンクが付いて高そう。上に付いている空冷ファンは別売だが、フル動作時にはかなり熱くなるので必要だと思う。 ITTech/AI pytorch jetson nano nvidia
JSSS日本語音声コーパスでParallelWaveGAN JSSS日本語音声コーパスでParallelWaveGANの学習済みモデル(Pre-trained model)を作成し、文章を朗読してもらった。おしゃべりオームとどう違うかな。 このように色々な日本語音声コーパスが公開されてきているのは有り難い。オームも喜ぶだろう。 ITTech/AI python pytorch wavegan jsss
三流小説家(GPT-2 Japanese Pre-trained Model) OpenAIが公開したGPT-2 モデルをベースにしてPytorch用の日本語事前学習モデルを作成した。 事前学習用の日本語コーパスにはjawikipediaと青空文庫を使用した。Ubuntu20.04上のPytorch 1.6で動作させた。GPT-2の文章生成用の導入フレーズとして以下の文章を使用した。 "私は三流小説家と言われているのは知っているが、小説家に一流も二流も、三流もない、小説を書くだけだ。批評家は嫌いだ。女も嫌いだ" 以下のように文章生成用コマンドでパラメータと導入フレーズを入力するとGPU使用で、数秒で文章を作成してくれる。run-rootフォルダに日本語Pre-trained modelが保存されている。 ITTech/AI pytorch GPT GPT-2 Japanese pretrained
Tacotron 2 と Multi-band MelGANによる日本語音声生成 日本語音声コーパスJSUTを使用した、最新の音声生成、Multi-band MelGAN事前学習モデルが公開されたので、早速使ってみた。自前ではなかなか困難な、100万学習ステップの大規模なモデルなので、ありがたく使わせてもらいました。前回と同様に日本語テキスト解析にOpenJTalk、音響モデルにTacotron2を使用して、今回、音声波形変換VocoderにMelGANを使って比較した。結論として、より流暢な生々しい日本語を話すAIになったみたい。滑舌がよりなめらかになったのは、学習ステップの効果か。 ITTech/AI tacotron melgan
日本語BERTをJupyter Notebookで試す BERTでの日本語処理方法を、手軽にJupyter Notebookで試せるようにした。東北大学の研究室で公開している、訓練済み日本語BERTモデルがTransformersで利用できるようになって、かなり使いやすくなった。使い方を、私を含めたBERET初心者にもわかりやすいようにサンプルを作ってみた。 ITTech/AI 日本語BERT Jupyter Notebook