カテゴリー別アーカイブ: トピック

CSS Nite LP62「Webアクセシビリティの学校」特別授業

CSS Nite LP62「Webアクセシビリティの学校」特別授業でUDトークによる全文ログが採用されました。UDトークに手話通訳とウェブのアクセシビリティを勉強されてる方たちがアクセシビリティ対応がバッチリの環境で学ばれることはとても意義があると思います。

僭越ながら開発者の青木秀仁、オープニングで10分くらいお時間をいただきUDトークとアクセシビリティについてお話をさせていただきました。

全文ログを掲載いたします。

これからもCSS NiteではUDトークをご活用いただけることを期待しています。

ーーー
はい、皆さんこんにちは。
(こんにちは)
僕はこれでOKです(笑)。

今回植木さんから紹介があったようにですね、ちょっとアクセシビリティの会ということでやっぱり会自体がアクセシビリティじゃないと駄目だよねっていうことでこうやってUDトークというですね、アプリで協力をさせていただいております。

今早速僕が変なメガネをかけていると思ってる方は多分この中の半分以上はいると思うんですけれども、今僕目の前に字幕見えてます。
これメガネ型ディスプレイです。

こういったスクリーンに出すのも良いんですよね。でもそうするとやっぱり自分のペースで読めない。
今日皆さんの手元にQRコードが書いてあるチラシあると思います。それを使っていただけるとですねアプリをインストールして、手元で自分のペースで字幕を見ることができます。

このUDトークというアプリの使い方はそれがメインになります。やっぱり自分のペースで話を聞くスピードもですねそれぞれ読むスピードもそれによってまちまちです。その辺は個別に対応することもアクセシビリティの一つだと僕は考えています。はい。なので、皆さん今日はですね手元で字幕を見ていただけるといいのかなと思います。

そして今僕がかけてるメガネ型ディスプレイ、やっぱりスマートフォンで見たりとかですね。スクリーンで見たりとかって視線の移動が大変なんですよね。でもこのメガネ型ディスプレイを使うと、自分の視線上に常に字幕が入ってくるという。これ何かそんなにすごい近未来のものかと言われると、アマゾンで買えます。

これエプソンの製品なので、Amazonで買うことができます。なので今日これ開催中ずっと回しますので。はい。持って帰らないでくださいね。はい。僕どこかにいますんでね。はい。最後にチェックしますんで。はい。早速今ちょっとこれ回しちゃいます。
こういうのはですね自分から率先して体験した方がいいですよ。うん。自分の持論ですけれども、アクセシビリティとかって学ぶことよりも、やっぱり体験とか想像力なんですよね。実際何かメガネの前に字幕が出てくるっていうふうに聞いたらそんなもんかって思うかもしれませんけどもやっぱ実際に体験してみるとすごいこんなふうに見えるんだとか。うん。もっと自分ならこんな工夫をしてみるなとか。

そういうふうなことがやっぱり気づきがあるんですね。なので今日はこうやってアクセシビリティを学ぶ会でもありますけれども、ぜひ僕はですね、体験と想像力ってのを大事にしていただきたいなと思っています。はい。なので今日皆さんはまずリアルタイム字幕と手話通訳ということを今日体験しますよね。
こういうのがあるとすごい視覚的にいろんな情報が入ってきて、おそらく自らの理解もですね、すごく進んでいくんじゃないかなと思っています。はい。ぜひそのあたりもちょっと今日は意識してですね、学んでいただければいいのかなと思います。

今日はちょっと冒頭少し時間いただいたのでUDトークについてお話をさせていただきたいなと思います。
全てのセッションでリアルタイム字幕を提供しますということです。

じゃUDトークどういう目的で使われているのか。はい。まずですね、やっぱ聴覚障害をお持ちの方への対応ということは日本語をまず日本語字幕で出すこれはですね。もうかなり日本中にこのアプリ広がっておりまして、現時点で43万ダウンロード、あります。はい。全国で400以上の団体、自治体、教育機関、特に教育機関に至ってはですね120大学ぐらい入ってます。それだけ広まっているアプリでもあります。

そうですね。ちょっと統計上ですけれども、4月に1ヶ月間で800万発話ありました。
すごい使われてるんですね。その数が多いのかどうかさえ僕もわかりません。はい。
やっぱりこんだけ日本語がうまくできるとですね、やっぱり今度は外国人への対応できるんじゃないかというふうに皆さん想像するわけです。これが想像と経験ですよね。はい。自動翻訳皆さんもおそらくいろいろ使われていると思います。
最近かなり精度が上がってきましたよね。でも完璧じゃない。

多分アクセシビリティの目指すところそこなんですよね。完璧を目指しちゃったら、結局完璧っていうのはないんですよ。うん。やれるところまでやるどういうことをやったらいいのかっていうことをやっぱり考えながらやる必要があります外国人への対応なんかでも100%の翻訳を目指すよりは
こういうテクノロジーを使って6割7割、いろんな国の人に言葉が伝わればいいなというところでこういうアプリの活用が進んでいます。
後は議事録の作成ですね。今日の記録全て残ります。はい。きっと終わった後にこのログはどうするのかはいろいろアイディアはまたあるとは思うんですけども。はい。何時何分何秒に喋ったというログが全部取れます。

そうすると全文記録の作成もできれば、動画の字幕付なんかもできます。もう従来動画の字幕付けてすごい大変だった作業ですが、UDトーク使うとかなりスピーディーにできます。うまくやれば翌日に全て公開ということもできます。
しかもこのアプリが無料アプリというですね。なんという世の中でしょう。
と植木さんがいつもですね。何かあるたびに「お高いんでしょう?」とかっていうんですけども。
植木さんからお金を取ろうと思います(笑)。

お気づきのように、音声認識技術なんで、やっぱり間違いはあるんですね。これに関して突っ込んでも仕方がないわけです。だから、音声認識の間違ったところは今スタッフが編集しています。はい、別室でのんびりとお菓子でも食べながら修正したりしています。
はい。実はですね今日皆さんも修正に参加できます。うん。今スマートフォンで見てる方がいらっしゃったら、間違ったところがあったと思ったらタップしてみてください。そうすると修正ができます。なのでUDトークのコンセプトはみんなでつくる字幕、みんなでつくる記録です。
こういうのをオープンにしていくことで、いろんなアクセシビリティ可能性が生まれるかなと思っています。はい。なのでぜひ皆さん、全文記録の作成に参加してみてください。はい。きっとそのうち編集権限が取れなくて悔しい思いをすると思います。結構ねゲーム的な感じになってきます。

さらに今はメガネディスプレイもそうですけれどもARとかVR技術で情報支援を面白くできます。今手元で見ていらっしゃる方がいたらUDトークのメニューをタップしていただいて、シアターモードってのがあるんですね。そうするとカメラが起動して、カメラ越しにこう見ることができます。ちょっとね画面が小さいから見えないかもしれませんが、そうするとですねちょっと眼鏡をかけるには抵抗があるなみたいな方でもですねスマホをかざしてその自分の視線上に字幕を出すということができます。結構ね今年からこういう視覚系のアクセシビリティ、カメラを使ってARVR体験をするということはかなり主流になってくるんじゃないかなと思います。いち早く体験してみてください。

さらにこの応用でVRのゴーグルなんかを使ってやることもできます。なのでこういうUDトークとですね、VR機能を使って視覚情報をハックするみたいな感じのことを結構言ったりとかしております。でその辺りはですね、休憩時間とかでも受付にいろいろ用意しておこうかなと思ってますので興味がある方は僕を捕まえてください。多分どっかに居ますんで。

今いいましたけどもかなり今このアプリ広がっております。例えばですねテレビの前に字幕ができるとか本当にリアルタイムで議事録とったりとか、インタビューの記録を取ったりとかそういうこともできるようになります。やっぱりですね自動音声認識とか、自動翻訳の技術を手軽に使っていく、こういうのを当たり前にしていくことがですね、やっぱりアクセシビリティを考える上で土台を上げる役目になると思ってます。

なので、ぜひ皆さんも今日ですねUDトークをインストールして、こういうふうなイベントが開催できるということを知っていただいて、持ち帰っていただき、知っていただいて、持ち帰っていただき、自分たちが開催するイベントでもこういう方法でやっていただけたらいいんじゃないかなと思っております。

やっぱアクセシビリティの話をするんであればアクセシビリティに富んだ会を開催して、かつ、その後いろいろ記録に残して資産化していくことが大事だと思います。というわけで、ちょうどいい時間になりましたのでこれで終わりたいと思います今日は最後まで楽しんでいってください。

【全文ログ】インクルーシブ対応としての字幕のトレンド

2019年5月16日開催、アクセシビリティの祭典でのセッション「インクルーシブ対応としての字幕のトレンド」の全文ログです。ぜひお読みください!

アクセシビリティの祭典セッションページhttps://accfes.com/2019/session/session1.php


青木/皆さんこんにちは。
今回の祭典アクセシビリティの祭典の最初のセッションをつとめさせていただきます。
私、青木と原さんです。
えーとじゃあ座りましょうかね。
トップバッターということですね。
詳しいプロフィールなんかはホームページの方に2人とも書かれているのでそちらを見ていただくのがいいかなと思います。
インクルーシブ対応としての字幕のトレンドというふうなタイトルで、ちょっと紹介をしていきたいなと思います。
実は僕はですね去年のアクセシビリティの祭典でもこのUDトークを使ったことで、後ろの方でいろいろスタッフとして動いておりました。
なんか今回は登壇者の方に回ってくれと言われたので、ありがたく、この場をお借りすることにしました。
何を話そうかなと思うところなんですが、実はあんまり字幕ってことだけに対しての話をすることってないんですよね。
どっちかっていうと、インクルーシブ対応というところで、その中の一部の手段として、リアルタイム字幕って非常にいいんじゃないかみたいな話をよくします。
なので今日はちょっと視点で話をしたいなと思います。
結構短い時間でぎゅっと詰めるのではもう大分経ってますね。
無駄な話はしないようにしていきたいと思います。
とりあえず今日の僕らの講演は写真撮影も動画撮影も個人的に全部OKなので、なるべくよくとっていただいてSNSなんかに公開していただけたらいいんじゃないかなと思います(笑)。
ちょっと簡単に今日の仕組みをご紹介します。
UDトークも結構本当に今使われてる企業団体さんいっぱいあってありがたい限りなんですけども、仕組みとしては今日はそちらの音響設備の方でiPadが置いてあってそこで音声認識をしています。
それでプロジェクターの方に一つiPhoneが置いてあって、無線LANで繋がってる携帯回線でも繋がるんですけども、繋がっていて表示をしている。
あと後ろの方で上の方でですね、誤認識の修正をしてくださっています。
やっぱり音声認識ってどうしても違うところがあるんですよね。
これに関しては正直、そういう機械に対して間違いがあるだろうって突っ込むのもどうかという気がするので、よくAI時代人間の仕事はどうなるのかという話をしますけれども、音声認識の誤認識を直す仕事はまだまだ人間の仕事です。
はい、皆さんで一生懸命やりましょうということで、今日配っているチラシを皆さん今お手元でUDトークの画面を見てらっしゃって手元で字幕を見てらっしゃる方もいるかもしれませんが、皆さんも誤認識の修正ができます。
なので今日多分専門用語がいっぱい出てきますよね。
なので、皆さんが知っている知識をフル動員して、この前の字幕を作っていただけるといいのかなと思います。
いいですね、早速今直ってますね。
これちゃんと直していただけると。
最後、記録が全部綺麗に残ってますので、全文記録が残るってやっぱこういうイベント、大事ですよね。
なので今日は実際に使う使っている現場を見ていただいて、ぜひ皆さんも戻ったら自分がやってるイベントとかそういう会議なんかでUDトーク使って記録を作成して字幕を出してみるとか、そういうふうなことをしていただければいいのかなと思います。
本題に入っていきます。
ちょっと軽く自己紹介ですけども、青木秀仁と申します。
岐阜県郡上市っていうすごい田舎の出身で、元ミュージシャンでプログラマーという経歴を持っています。
最近趣味はなんだろうなあと思ったら結構この翻訳アプリから語学の方にはまっててですね、最近いろんな言葉で遊ぶような、趣味を持っています。
肩書きとしてはShamrock Records株式会社というUDトークの開発会社ですね。
そちらの方とあと最近と地域貢献活動じゃないですけどそういう活動を始めて、東京都練馬区でですねCode for Nerimaという団体を立ち上げました。
おそらく今日来ていらっしゃる方の中にも、Code for JapanとかこちらだとCode for kobeとか板垣さんもCode for Amagasakiとかに入ってらっしゃいますけど、Code for Nerimaの代表を務めております。
その活動もあとで紹介したいなと思います。
UDトークおかげさまでですね本当毎年法人導入が増えてですね今全国で400団体ほどを導入をしております。
これが多いか少ないかは正直比較対象がないのでわかりませんが、大学でいうと100大学以上今導入がされています。
用途としては聴覚障害の学生さんのサポートとかですねあとは発達障害とか学習障害の方への情報のサポートですね。
結構視覚優位の方なんかに凄く字幕いいんですよね。
僕が視覚優位なので基本的に話聞くよりも、見た方がいいんです。
僕はじっとして話し聞けないので、こんだけ喋るくせにね(笑)。
ダウンロード数ですけども、43万ダウンロード、今ありました。
結構行きましたね。
これが、これも比較対象がないのでよくわかりませんけどね。
というわけで、いろんな用途で最近活用されてて、議事録作成とか翻訳の現場で活用されているというふうな話を聞いています。
UDトーク何ができるかというと、こういった音声認識を使って、音声合成、音声認識使って字幕を出す機能がメインで取り上げられることは多いんですが音声合成を読み上げもできます。
この辺のデモはですね、終わったら展示ブースでご紹介もしますので、ぜひ。
なので、実は視覚障害の方なんかもUDトーク使ってる例があるんですね。
ちょっと多言語翻訳機能とかですね翻訳、こういう機能がありまして、見てらっしゃいますね。
それで、皆さんお手元のスマートフォンでも自分の好きな言語に設定して見ることができます。
なのでよく英語対応すれば外国人OKだろうっていうのもやっぱり僕は違和感があって、なんとなくでいいので、いろんな言語の人が理解できるようなイベントとかそういうのが今時のインクルーシブでいいのかなと思います。
あとは、UDトーク振り仮名全部ふってありますね。
やっぱり子供が漢字読めないとか、実は外国人の方が振り仮名ついていると日本語読みやすいっていうケースがあるんですよね。
最近だとやさしい日本語ってカテゴリーもできたくらいです。
そんな機能もあったりとかします。
あと遊び心満載です。
UDトークはですねARとかVRの機能があるんですね。
これは紹介したいと思います。
皆さん今お手元のUDトークで。
この画面になっていると思います。
メニュー押していただいて、シアターモードていうふうにするとこんな感じで。
こんな感じで見ることができます。
例えば、あまり僕のアップ出しても仕方がないですけども(笑)。
こうやって顔を見ることができますね。
例えば、こちら手話通訳の方がこうやってやっていただくと大画面で手話と字幕が見れたりとかしますね。
ちゃんとこれ60フレームのカメラ起動しているので、手話のコマ落ちもしません。
やっぱり視線移動が結構課題なんですよね。
あっち見てこっち見てみたいな感じで。
そういうのをこうやってARとかVRとかそういうので解決していきます。
もうちょっとまともなものを用意してきました。
えっと、エプソンのウェアラブルグラスですね。
これもちょっと適当に回していくので、ぜひ体験してみてください。
今、字幕がカメラ越しに見えるようになってます。
こちらももう僕今日も表にいるので適当に持ってて使っていただければいいかなと思います。
こんな感じで。
UDトーク今日も使っていくわけですけれども、よく話す開発のきっかけですね。
耳が聞こえない人との出会いからですね。
なんか相手に伝えるスキルが足りないのは自分の方かなと思って。
それで音声認識とアプリが作れたんで、なんか自分のスキル不足を補えないだろうかなみたいなところで開発しました。
なので、よくこういうのってビジネスが先なのかっていうふうな、よく言われるんですけれども、本当はじめ自分の趣味で、自分が使いたいアプリを作ったら、やっぱりたまたまそういうのを使いたい人が周りにいっぱいいて。
ちょっとそれを売り物にしてみたら売れるんじゃないかなみたいな感じで売ってみたら結構売れたっていう感じですね。
でもやっぱ自分が今のところまだ一番のユーザーだと思っているので、僕を超えるユーザーが出てくるということを期待しています。
音声認識とか自動翻訳って結構やっぱり今ホットですよね。
AIの技術を活用するとか、人工知能、そういうところで、なので、こういう技術はですね、やっぱりインクルーシブな活動にどんどん活用していくことで、いろんな可能性があることを今日知っていただけたらいいかなと思います。
ちょっとインクルーシブって何っていうふうな話です。
これよくネットとかでも落ちてる画像なんですけども一応自分でそれを参考にして作りました。
例えば一番左側、今画像が出てますけども、一番左側にはエクスクルージョンいわゆるマジョリティと呼ばれる人が真ん中にいる中で、周りにいろんな人が点在してる状態ですね。
ちょっとすごい古き昔の日本みたいな感じかもしれません。
その横がセパレーションといってマジョリティのグループがあるんだけどその周りに、特に同じ特性を持った小さいグループがあるような感じです。
わかりやすく言うとろう学校とか盲学校とかそういうふうな例えになるかもしれませんね。
決して悪いわけではないと思います。
その横がインテグレーション、大きいグループの中に、いくつものグループがある形です。
学校にある仲良し学級とかですね、そんな感じのイメージかもしれません。
その横がインクルージョンな環境って形ですね。
同じこのグループの中にいろんな色の特性を持った方が一緒にいるという。
こういう状態になったときにどういうことが発生するかということですね。
ざっくり言います。
社会課題ってコミュニケーション課題だと思うんですよね。
隣の人とのコミュニケーションができますかと。
例えばさっきのインクルージョンて図だと、隣にいる人が自分と違う特性持ってますよね。
じゃあその方とを話せますか、コミュニケーションがとれますかと、まずそこをクリアしないことにはその先の課題が見えてこないんですよね。
それを突き詰めると、もう社会課題の全ての根底はコミュニケーション課題なんじゃないかなと思うところです。
実はそのコミュニケーションの課題を解決するところにテクノロジーって一番活用ができるわけです。
例えばですね、インクルーシブな世の中へということですが、よくイベント開催されると主催者側がご参加しますって障害者の方とか外国人の方がいたときに、お待ちくださいとか対応しますとか。
なんかいろんなごにょごにょ困るわけですよね。
その時ですね何もしないよりはもちろんした方がいいんですけどもいろいろ残念なことも多いなとよくネットの記事なんかでも出てますね。
でもちょっと僕が考える、イベントってのはやっぱ主催者側がいろんな設備を用意してますよ、とか逆にしてほしいことを言ってくださいねっていうふうにオープンにしておいて、設備として備えつけでこういうものがあると。
必要な人がいるかいないかに関わらず設備として様々な配慮や対応がある。
まさに今日のこのイベントなんかそうですよね。
いろんな配慮があって、いろんな準備をして、別に今日来るのに特別に申請する必要もなくですね、自由に使えるわけです。
こういうのが結構インクルーシブなイベントなのかなと思います。
もちろんこの全てにおいて行うことは難しいことは分かってるんですけども、なんか0か1かで考えるんではなくて、0. 5とか0. 6目指そうよってのでも僕はいいと思うんですよね。
0って本当にゼロで全く何もないんですよね。
でも何かすることによって1でも、0. 1でも0. 2でも出来上がれば、あとはそこに掛け算していくっていうふうな考え方になります。
なのでまずはゼロから脱却するために、そこは努力とか根性ではなくて、テクノロジーを使うのが今時のすごくいい方法なんじゃないかなと。
なのでまずテクノロジーを活用しようというふうに思うことも一つのインクルーシブなアプローチなのかなと思います。
なんかこうやってけっこう喋るとすごい偉そうに何かわかったように喋ってんなお前みたいな感じによく言われるんですけれども、だったら僕が自分でやってみようかなって思ったわけですね。
そうやって自分がちょっと思い描くインクルーシブの具現化する、それがCode for Nerimaっていう団体に繋がります。
今ねCode for Nerimaのですねロゴが出てますけども、これは何に見えますか?。
大根です(笑)。
練馬区練馬大根という名で、大根カラーですね。
もうそうやって言うと多分大根にしか見えなくなってくるんですよね。
それはいいですはい(笑)。
一般社団法人Code for Nerimaちょっと軽くさっきも言いましたけどCode forについて、Code for Japan、Code for Tokyo、Code for Americaとかもあるんですけども今世界中で広がるシビックテックというですね活動ですね。
シビックテックという活動で、シビック+テクノロジーなんかみんなのテクノロジーみたいな感じの言い方もされることもあります。
もともとはオープンデータとかですねそういう自治体が公開しているデータを活用して地域課題を解決するというとこから始まりましたが、今はあまりそういう活動にこだわらず、いろんなことをしていると思います。
一応全国で80以上のCode forという冠をつけた団体があってもちろん、この地域もあったりとかします。
これが面白いのが、練馬区っていうキーワードだけで集まるんですよね。
そうすると職業とか年齢とかも関係なくなってくるんでやっぱりインクルーシブな環境になるわけです。
多種多様な人が集まるコミュニティの楽しさというのがあるわけです。
おそらく皆さんも仕事を離れて、例えば何かビリヤードとかダーツとか、それとかやる場に行くといろんな職業の方いらっしゃいますよね。
なんかああいう仕事とは関係ない肩書きとかカテゴリで集まるコミュニティの場っていうのはいろいろ気づくことが多いです。
Code for Nerima何をやっている団体かというと大きく活動は三つあって、まず練馬区で開催されるイベントの情報アクセシビリティのサポートを行っています。
区の公式イベントとかやってるんですね。
今年の成人式の字幕対応をやりました。
実は東京都はですね去年の統計だと8人に1人が外国人の新成人がいるというふうになってます。
なので実は成人式って他言語対応がもう必須なんですよね。
二つ目、オープンデータを活用して住民サービスを企画提案開発。
ところが練馬区がまだあまりオープンデータが出てきてなくてっていうと結構怒られるので言いませんが(笑)。
なので、そういうのもやっておりますと。
3番目が結構僕が今年から力を入れているイベントで、多文化共生について取り込む。
多言語カフェというですねそういうイベントをやっております。
こちらだけで紹介すると1時間ぐらいいっちゃうんで、後で詳しく知りたいかたはブースに来ていただければいいかなと思います。
このCode for Nerimaの活動方法ですけれども、まずイベントには全てUDトークで字幕を付けています。
そのイベントの内容とか全文ログは全て保存して公開しております。
実は何かこういう字幕って本当に聞こえない人のためとか見ることのものだろうって言われるんですけれども、実は全文記録を保存しておくとそれを読み上げで読んだりだとかですね。
もちろん僕らだって全部覚えてるわけではないので、それで記憶を呼び覚ますみたいな感じの活用方法なんかもできます。
あとはメンバー全員に発表の機会を持ってもらってます。
どういうふうに発表するのか。
もちろんこれは視覚障害のメンバーとか聴覚障害のメンバーなんかでも自分で自分の自己紹介をする方法。
これを一緒に考えていきます。
どうやって発表しようか、どう伝えようかとか。
聞く方も喋る方も一緒に考えるということをやっております。
あるブログで何かそうやって地域活動やってる人って実は困ってないよねみたいなすごい爆弾発言があって(笑)。
でも確かにそうなんですよね。
僕もあんまり東京練馬区に住んでいて困ってないんです。
だったら困ってるメンバーを入れればいいんじゃないか、そこにいろんな気づきがあるという。
実は僕はUDトークはそんなに障害者の方とか外国人の対応のためにやったわけではないんですね。
自分たちで記録も残していきたいし、自分たちでもわかりやすいように共有していきたいしっていうんで。
やっぱりいろんな方に来てもらうための方法を用意するにはどうしたらいいかなというところを考えたら、結果的に本当にいろんな人が来てくれるようになったというところです。
現在正会員で40名ぐらいで会費で運営をしている団体です。
実は結構Code forの中では規模が大きいんじゃないかなというふうに自負しております。
なのでいろんな方法ですね活用してCode for Nerimaの活動は結果的に誰でも参加できる。
インクルーシブな環境になっておりますはいわけでそろそろ時間になりましたので僕のパートは。
結局アクセシビリティとか。
インクルーシブって何なのかなと考えると「体験と想像力」だと思うんですよね。
やっぱり机上の空論で話してもだめなんですよね。
体験することによって、こういうときはこうなんだとか。
こういうときはこうなんだってことを学んでいきますあと想像力です。
やっぱり1回なんか耳聞こえない人と関わってみると、何かこのイベント自分もし耳が聞こえなかったら参加できないなとか。
もし1回でも目が見えないかと付き合ってみると、この資料、全然わかんないなとか。
例えば車いすの方なんかと付き合ってみると、そもそもこの場所に来られないなとかもう本当ね最近いろんなことを考え始めちゃって、かつ最近外国人の方と付き合うなってくると、ここ日本語わかんないと来れないなみたいなも考えることが山ほど出てきてしまって結構大変なんですけども。
何かそういう想像力っておそらく今日来てる方なんかでもクリエイターの方とかも多いと思うんですけども、すごくこうエネルギーなると思うんですよね。
なので体験と想像力ってのはですね、もし自分が○○だったらってことでもうどんどん考えて言っていただければいいのかなと思います。
そういう考えがおそらくこれからのインクルーシブな環境とかそういうのに繋がっていくのかなと思っております。
というわけで僕のパートを終わりたいと思います。
ご清聴ありがとうございました。

原/青木さんありがとうございます。
次のパートは、僕の方になるんですけども、実はわたくし当事者、聴覚障害者となります。
生まれたときから、ろうなんですけども、手話を始めたのが3年前ぐらいまでなんで、それまでは口話を中心にですね、社会の中で生活していました。
青木さんのスライドとはちょっと変わってくるんですけれども、ちょっと会社の方をですね、紹介させてもらいたいなと思っております。
実は、塩野義製薬っていうところで働いておりまして、ただいまコミュニケーションバリアフリー、気づきを形にマイナスをプラスにと言う形でプロジェクトをやらせてもらっています。
どんなことをやってるかっていうのは、うちの会社の場合はですね、製薬会社ですので、お薬を病院で患者さんに届けるという使命があります。
そのお薬を届けるにあたって、すべての人に届けたい、すべての人って言うのはどういう人達かというと、健常者もいますし聴覚障害者やいろんな障害をお持ちの方もいらっしゃいますけれども、その中でお薬をもらうときにバリアを感じている人たちがいないだろうか?ということを我々当事者が気づきを得てですね、プロジェクトを立ち上げました。
このプロジェクトは、2021年の3月までにすべてのお困りの人たちを、全てバリアフリーで行きましょうっていう、壮大な目標を今掲げておりまして、そのためにはどういうふうにやったらいいのかっていうのをメンバーで一生懸命考えて、やっています。
プロジェクトに3本柱がございまして、患者さんだけでバリアを工夫しても意味ないよねと、医療従事者に対しても、塩野義製薬の従業員が障害のことを理解する必要があるよね、というようなことを3本柱で立てて、その中の一つとしてUDトーク入れるっていう目標も立てております。
ちょっとこの後のスライドについては、ちょっとビデオを作成しておりますので、みなさんにビデオをごらんいただきたいなと思っております。
ちょっと準備するまでお待ちください。

(ビデオ)皆さんご存知でしょうか?。
日本には耳の聞こえない人、聞こえにくい人がおよそ2000万人います。
これは国民の6人に1人の割合です。
全世界では4億7000万人もの人々が聞こえに問題を抱えています。
聞こえはとても身近な問題。
オフィスで後から呼ばれても気づきません。
病院やクリニックの待合室で名前を呼ばれても気づきません。
日々の生活、車のクラクションに気づきません。
オフィスで会議の進行について行けない場合もあるので内容を教えてほしいです。
薬局や病院で医療従事者のマスクを外して、口の動きを見せてほしい。
災害時の緊急事態では状況がわからないのでお知らせ内容を教えてほしい。
電話が取れないため、周囲のサポートが必要です。
ナースコールで緊急連絡したら、直接来てほしいのです。
病院の予約変更や薬の問い合わせはメールでなく電話対応のみが多いです。
このようなことが続くと、社会から隔離されたような寂しい気持ちになってしまうこともあります。
困りごとを解決したい。
日常的に困りごとが多いと外出すら億劫になる。
ますます消極的な気持ちになってしまいます。
聞こえないことによる生きづらい社会課題を解決していきたい。
そうだ、みんなで力を合わせて立ち上がろうよ。
そこで、私たちはこれらコミュニケーションにあるバリアを解決すべく、2015年10月。
コミュニケーションバリアフリープロジェクトを立ち上げました。
コンセプトは気付きをカタチに、マイナスをプラスに。
立ち上げ当初は社内でもニーズがない、バリアフリー対応は手間がかかるなどの意見もありましたが、全ての人に必要な薬の情報を伝える思いはみんな同じだったと気づきました。
聴覚障害を持つ当事者ならではの目線を生かし、製薬企業として社会に貢献したい。
誰もがポジティブに生きていける世の中にしたいという思いを伝え、1人また1人とメンバーや応援してくれる人が増えていきました。
シオノギには常に人々の健康を守るために必要な最も良い薬を提供するという基本方針があります。
塩野義三郎は、大阪府立生野聴覚支援学校設立の後援会員名簿に名を連ね、聴覚障害者への支援を行っていました。
CBFプロジェクトは、従業員のために、医療従事者のために、患者さんのためにという3本柱を軸に様々な活動を行っています。
会議のときなど、会話がわかるように音声を認識し、リアルタイムで文字化するアプリUDトークを導入し、社内の情報保障を整備しました。
年頭の社長メッセージのビデオに字幕を入れることで、わからなくて当たり前という聴覚障害従業員の疎外感がなくなり、周りの社員との一体感が生まれました。
障害を持つ患者さんもバリアフリーで受診できるよう、医療機関向けセミナーを各地で開催しています。
誤解が多い食間食前を子供でも分かりやすく、まんがで説明した服薬説明ポスターを作成し、配布しています。
聴覚支援学校でも聞こえない子供たちへ働きかた講座を実施しました。
他にも検査技師の放送指示が聞こえないため、胃バリウム検診の流れをイラストで説明したポスターなども制作しています。
テレビ放送のミュージックフェア内での市販薬CMにおいて、字幕つき放映を開始しました。
当事者の自己表示ツールとして様々な文言を用意した耳マーク、筆談マーク入りのしおりカードを用意しました。
どなたでも来館しやすい窓口作りとして耳マーク、補助犬ステッカーを塩野義製薬本社受付に設置などのバリアフリー活動を展開しています。
これまでの活動の中でたくさんのご意見や感想をいただきました。
CBFセミナーに参加した医療従事者からのコメントです。
医療機関としていろいろなコミュニケーションの方法を備える必要性を感じた。
わからないからもう一度言ってくださいと言ってくれた難聴者の方は大きな勇気を持っていたのだと気づくことができた。
聞こえについてあまりにも知らないことが多すぎた、誤解していた。
などなど、多くのご意見をいただきました。
コミュニケーションバリアフリープロジェクトの最終的なゴールは、医療機関、製薬業界だけでなく、社会全体で障害の有無によらないカタチを実現させることです。
誰1人取り残されないために。
シオノギコミュニケーションバリアフリープロジェクトの挑戦は続きます。
気づきをカタチに、マイナスをプラスに実現させるために。

原/ありがとうございました。
ビデオは以上になります。
こうした取り組みの活動がですね、東京の方でも認められるようになってまして、こういうふうに心のバリアフリーというのを登録証をいただくことができました。
今後もですね、全国でも、こういった取り組みを地方団体、行政の方から、表彰されるように一生懸命頑張っていきたいなと思いますのでどうぞよろしくお願いします。
以上でございます。
ありがとうございました。

青木/ありがとうございました。
というわけで、あとの時間はですねせっかく2人でいるので2人で全く会話をしないのも仲悪いんじゃないかみたいに言われるとあれなので(笑)。
あと10分くらいですね、いいと思います。
ちょっとお互いに質問を一つずつ考えて来ました。
なので、それについてですね、話をしてみたいなと思います。
まず、パネルディスカッションとしまして、ジャン、原さんの方から。
「いつUDトークが必要なくなりますか」と、いう質問ですけど。

原/ちょっと、これ言うとちょっと感じ悪いふうに見えるけども(笑)。
以前NHKの方に青木さんが出演されたんですねUDトークについて。
2016年10月ぐらいに放送されたもので、実はその時には知らなかったんですけれども、再放送の部分がありましてそのときに初めて見たんですね。
最後に青木さんの目標って何ですか?って。
僕の仕事がなくなる、UDトークがなくなる、でそれってどういう状況になってるかっていうのが、社会全体が字幕を出すことが当たり前になるよねって、ということを想定した上でUDトークなくすことが目標だというふうにおっしゃっていたので、あれから4年経ってるんですけど、っていつなくなるのかなって?いうのをちょっと改めて質問させていただいたのが背景でございます。

青木/わかりました。
4年も経つとやっぱり考え方が変わるものでしてはい。
確かにいくつかのインタビューで言ってるんですね。
なんか、意図としては、個人が頑張んなくてもいいような世の中社会になればいいかなって。
僕も正直なんかも障害者の自立支援ってすごいその言葉自体がどうかと思ってて、なんかなりそっちばっかりがんばるのみたいな。
歩み寄ればいいし、特にコミュニケーションの問題なんて、もう歩み寄るしかないんですよ、もう解決策としては。
そんな中で、片方だけなんかUDトーク使って頑張る世の中がなくなればいいかなと思ったんですけども。
実は僕もUDトーク結構便利なんですよね。
ほとんど聞いたことを覚えてないし、記録残ってるとすごく便利だし。
なので別に頑張るがんばんないじゃなくて個人でいろいろやることって非常に、自分にとってメリットがあるかなというあったら、どんどんどんどん新しいツールとか新しいものとか自分で工夫して何か生活としていくとか、仕事をしていくとか、それこそコミュニティに参加してみるとかっていうふうなこと、そういうとこに目指していけばいいんじゃないかなと。
だから、UDトーク必要なくなったらまた別のアプリを作ろうかなと。
早速今別のアプリ作って紹介してるので後でインストールして帰ってください(笑)。
ちょっとねUDトークが割とプロ用の機能が入ってきてややこしくなってきたんで、すごい簡単に使えるですね、翻訳アプリ会話アプリを作って、今無料で配布していますVoiceOverに完璧に対応してますんで大丈夫ですこれ、素晴らしいでしょ?。
そういうのもやっぱり体験からくるんですよね。
大事です。そんな感じで。

原/当時の、3年4年ぐらい前にUDトーク導入するに当たって、いろいろいろんな会社の音声認識ツールを比較したんですけど、その時点でもやっぱり青木さんのツールっていうのは、良い言い方をすると4年5年ぐらい先を見据えたツールになってるなと。
今、他の会社が青木のコンセプトに追いついてるっていうのがあって、ものすごい大きな会社については、ビッグデータの量が多いのですけれど、、その会社さんに青木さんがのみ込まれるとか、吸収されるとか、差別化されるとか、そういうのは危機感みたいなものはないんですかね?(笑)。

青木/そうそう。
そうなんすよ。
うちの会社って僕しかいないんですよ。
1人だけなんですよ。
一応奥さんが経理やってますけどほぼ1人で、開発と広報とこういう場にも来てるんで、小さすぎると何も構ってもらえないんですよね(笑)。
あとちょっとこれ幸いだったのがUDトークってあんまりもう全く助成金とかそういうのを使わないで自分のニーズから始まってすごい小さい規模で作り始めて今大きくなっているので、ちょっと変な言い方するとどこにも貸しがない感じでやっているので割と自由にできるかなと。
あとはもうやっぱりどっちかってと身近な人とかに使ってもらって、なんか良かったねって言ってもらえる方が僕もうれしいので、でも本当にいろんな今アプリとかが、最近Googleなんかが結構本気でCSR活動に参加してきて、何か音声認識で字幕でるみたいな。
あれすごいことだと思うんですよね。
なんかもああいうので、もうどんどんいい音声認識のアプリとかそういうのが出てきても一般的にぱっと広まってくれると、僕にとってもビジネスにとってもすごいメリットがあるかなと。
正直ね、こういう業界って、1人勝ちとかって、あんまりメリットないんですよね。
だからちゃんと、その市場を広げるために、いいアプリが広がっていくってことが大事かなと思います。

原/僕もいろんなアプリが出ていって、選べる立場に立つとより生活しやすいなという形でやっていけたらいいなというふうには感じてます。
ありがとうございます。

青木/その中でもUDトークとか選んでいただけると嬉しいかなと(笑)。
いうとこですね。
なので、どんどんこれからまた新しいアプリできるのは期待していただければいいかなと思います。
次に僕から原さんへの質問です。
「音声認識でどう生活が変わりましたか」と。
もちろんこれは聴覚障害者の立場で大丈夫です。

原/そうですね。
一番最初はね、テレビの字幕が出るようになってきて、字幕は録画の場合の字幕であって、リアルタイムの生放送だとか、字幕がないときに、何だろう、家族の中で、テレビ見てたときに自分だけが透明人間になっているような気分っていうのがよくありまして、スマホあるいはパソコンもそういった自分たちでデバイスを持つようになったときに、その中にUDトークっていうアプリが入ったことによって、生活ってのが仕事も含めてなんですけど、リアルタイムで字幕を見ること、見るっていうのも聞くっていうふうになるけど、見ていくっていうことで、一体感、動画にもありましたけど、リアルタイムで情報を周りの方たちと一緒に共有できるっていうのは透明人間からリアル感がすごい出てきて脳が活性化し始めるんですよね、リアルタイムでわかることによって。
いやいや、今まで結構、情報支援、情報保障って後で情報出してあげたじゃないか、議事録は渡してたじゃないかと。
後で教えて上げたじゃないかと。
いや違うんですよ。
飲み会の場だったり、会議の場だったり、コミュニケーションのリアルタイムのときに置いてきぼりにされているというのがちょっとあったので、今回このUDトークあるいは音声認識がというのが出たことによって、その場に自分の存在価値が示せると言う、感じるようになる。
こうしたアプリは、もう本当に感謝でしかないし、今後の生き方、生きがい、安心感を覚えながら生きていける、安心して暮らせるっていうのは、本当におおげさじゃないんだけれども、本当にそういうふうに感じられる時代に生まれてよかったらというのがあります。

実は手話は僕できないんですけど、3年前に手話始めたばっかりなんですけど。
だから、ずっと口話で聞いていて分からないなりに自分で推測していったっていうのがちょっと今までずっとあって、その中に誤解が生まれて、コミュニケーションができなくなって、いわゆるKY、空気が読めないないやつだとか、レッテル貼られたときもあったので、今後は手話も勉強して、音声認識ツールも使い自分たちがリアル感を感じるのはいろんな手段を、自分でリテラシーを高めて使っていくっていうのが大事なんじゃないかなというのは、思いましたね。

青木/そうですよね。
最初に会ったとき僕一生懸命手話してましたよね(笑)。
実はやっぱり思い込みあったんですよそれまでも、外国人は英語と同じような感じで聞こえない人は手話っていう。
手話は使える人も実際は少ないと聞いております。
今ちょっと皆さんも見ていただいて分かるようにやっぱり原さん少し喋り方が難聴者の喋り方なんですね。
音声認識の認識率もちょっと低い、ちょっとじゃないかな?低いですね。
今言ったように誤解をちょっと有無とかそういうのもあるんですけども「聞こえにくい人同士のコミュニケーション」というのが今一番の課題なんですね。
おそらく、聞こえる人から聞こえない人とのコミュニケーションももちろん放送の媒体を受け取るとかテレビとかそういうのおそらくもうこういう音声認識で解決の方向に向かっていくと思います。
手話ができる人、手話ってすごい僕も大好きできるんですけども、コミュニケーションツールとしては非常に便利なんですよね。
水の中でも会話できるんでこれすごくないすか?。
でもやっぱり手話、後から習得しなきゃいけない、これも一つの語学なんでやっぱ大変なんですよ。
皆さんが英語を覚えるのと同じぐらいな感じだと思っていただければいいと思います。
だから、やっぱり手話を習得するまで、習得するモチベーションがない中で聞こえづらくなって聞こえにくい人同士でコミュニケーションとるときってやっぱり筆談とか、パソコンとかスマホ、いまだとスマホで文字が打てるんでいいですよね。
そういうのもやったりとかします。
だからどこまで音声認識の精度とか上げられるかっていうとこはやっぱデータの収集とかそういうふうになるんですね。
なのでUDトークは今皆さんが使っていただければ使っていただけるほど、音声データが集まってAIの精度が上がっているという状態になってます。
だから本当に皆さんがいっぱい使っていただくことによって、協力していただいて、それで精度が上がると、だからもちろん難聴者の方にもちょっと間違いは多いかもしれませんが、積極的に喋って使っていただけるとですね、その音声も集まって精度も上がるという。
でもそれで面白いのが逆に難聴者の方の喋り方が上手になってくるんですね。
確認が出来るっていうふうなことになります。
でもこれって実は僕らも英語とか中国語を勉強するのって音声認識すごい使えるんですよ。
発音のチェックなんかにすごく使えます。
なので今日皆さん帰ったらUDトークとか、そういう音声認識のアプリで何か発音の練習なんかをしてもらえればいいかなと思います。
きっと何か生活変わるんじゃないかなと思います。

原/今後もUDトークの発展に期待していますよ。

青木/はい、おまかせください。
まだしばらくなくならないと思いますよ(笑)。
それがいいのかどうかはわかりませんが。
ちょうどいい感じのとこなので。
今メガネディスプレイどこ行ってます?。
まだ回ってないですよね?回りましたぁ?。
じゃ外にブースあるんで持ってきてください(笑)。
とり行けよって話ですよね。
最初のセッションをこれで終わりたいと思います。
今日一日、これからどんどんセッションが続きますので、皆さん楽しみに、いっぱい収穫を得て帰っていただければいいかなと思います。
ありがとうございました。

原/ありがとうございました。

【トピック】UDトークの特徴って?

最近いろんな音声認識や自動翻訳のアプリが出てきてとてもうれしく思っています。当たり前に使うような世の中になることが大事ですね。
そこで最近とても多いのが「どれを使ったらいいの?」ですが、それぞれ良い機能があるので好きなものを使ったらいいと思います。
でも一応これはUDトークの投稿なので「UDトークにしかできないことや特徴」をいくつか列挙してみたいと思います。

■長文認識
講演などの連続発話を途切れることなく認識させることができます(アドオン購入時または法人向け)。一般的は音声認識アプリは短い発話か長くても1分くらいのものが多いです。

■単語登録
UDトークの日本語音声認識は独自に単語登録ができます。いまのところこれが手軽にできるのはUDトークだけだと思います。

■記録がすべて保存できる
テキストデータは時間情報を含むもの、またICレコーダーのように音声も保存できるのでインタビューの文字起こしなどに活用することができます。

■通信機能
QRコードで通信してお互いの端末で見ることができます。似たようなことができるものはありますが、UDトークはとても安定しています。

■編集機能
通信機能を使いながら同時に誤認識の編集をしていくことができます。リアルタイム編集の機能はおそらくUDトーク以外には実装されていないと思います。

■とりあえず認識結果を出す
これは一長一短ですが、UDトークの日本語エンジンAmIVoiceは入ってきた音に対して何らかの結果を返します。雑音でも何かしら返して誤認識結果を出しますが、これはポジティブに捉えると「音があったこと」が分かるので字幕作成などには有効です。他社のエンジンなどは雑音は処理の対象外にするものもあります。

■AR技術との連携
シアターモードやメガネ型端末への対応など遊び心満載です。

■国産アプリ
日本(東京都練馬区)の小さな会社が作っています。現場運用に近いところで開発しているのでかゆいところに手が届く機能が実装されています。

■法人向けのサービスで日本一(?)
あまり競合がなく他社のものが公開されていないので分かりませんが、400団体を超える法人ユーザーを抱えています。

まだいくつかありそうですが、UDトークはただの翻訳アプリではなくリアルタイム字幕の運用に適していたり、記録を作成していろんなことに活用できる機能がたくさん実装されています。なので最近は会話に特化したSmilingual(スマイリンガル)と言うアプリと併用した運用をオススメしていたりします。

いろんなアプリ、それぞれ得意な分野があるのでいろいろ使ってみてください!

【トピック】イベントでの運用方法2つ紹介

UDトークは「喋った言葉を文字にする、翻訳をする」と言うとてもシンプルな機能を提供しているアプリです。なので使い方や運用方法はいろんなパターンが考えられます。

そうしたナレッジをまとめてイベントでの運用方法2つをご紹介したいと思います。


1.コスト最小限!多言語自動リアルタイム字幕

  • スクリーン投影:なし
  • 単語登録:しっかりと
  • 同時編集:なし

リアルタイム字幕はQRコードを発行して参加者のお手持ちのスマートフォンで見てもらいます。イベントでの準備は予めこちらのマニュアルにそって準備をしておきます。

イベント開催時のマニュアル

イベントが始まったら音響設備に接続してある端末の「タップして話す」ボタンを押すだけです。あとは自動で認識してQRコードを経由して参加者の手元のアプリへ字幕を送信します。単語登録がしっかりされているので認識率もそこまで悪くはないです。こちらの運用方法はSEMICON Japan 2018で実際に運用されたパターンです。すべての会場、すべてのセッションに完璧ではなくても字幕を提供したい、しかも低コストでということが実現できました。もちろん終了後にはすべてのセッションの全文ログが保存されています。録画されている動画と照らし合わせてあとから編集をし全文記録を必要に応じて作ることができます。

これにかかるコストは

  • 機材のレンタル費用
  • スタッフによる単語登録の作業
  • 必要に応じてコンパクトプラン、もしくはイベントプラン

のみとなり、UDトークのリアルタイムの運用に関してはスイッチをいれるだけなのでほとんどかかりません(アプリが落ちたときに復帰するくらい。アプリなので絶対に落ちないとは言えませんので)。

ただし、自動翻訳を利用するときは「原文が100%正しいことが条件」でもあるので様子を見ながらちょっと修正するだけでも効果は大きいと思います。


2.リアルタイム字幕はエンタメ!スクリーン投影

  • スクリーン投影:あり
  • 単語登録:分かる範囲で
  • 同時編集:あり

シンポジウムやカンファレンスで自動でリアルタイム字幕が出てくるのはある意味「エンタテイメント」でもあります。それにスピーカーの写真を取るときにあえて字幕をフレームに収めると「その人が何を喋ってるときの写真なのか」が分かる、いままでにはなかった新しいメディアとして扱えます。従来、福祉の世界では隅っこに追いやられていた字幕が、音声認識でこのスピードで全文出てくると非常にエキサイティングなのです。これはスーパーマーケットトレードショー2018での運用例がそれにあたります。

ただしスクリーン投影をすると言うことはそれなりに目に入るので間違ったものは直して行ったほうがいいでしょ。かつ、スクリーンは一方通行に流れていきます。手持ちのスマートフォンであれば例え音声認識の結果が間違っていても、後の結果をみてさかのぼって内容を再確認もできますが、スクリーンだけみているとそうもいきません。なのでスクリーン投影をするときは編集作業は必須となります。

ただし編集者をつけるときはだいたい常時2名、張り付きで作業を行うことになり、それなりに人件費がかかってきます。ですが、そのぶん事前準備のコストを下げることができるのでそのあたりは「どういう字幕を出したいか」によるバランスにもなってくるかと思います。でも編集者は特別なスキルは必要ないので、そのイベントのスタッフさんが開いてる時間に行うというのも十分可能です。

自動翻訳を利用するときは「原文が100%正しいことが条件」でもあるのでこちらの運用だと多言語字幕も安心して提供できると思います。


1か2か、もしくは1をベースに考えてポイントとなるところだけ2で対応する、と言ったパターンも考えられます。大事なのは「全部で提供する」ということです。「この時間帯だけ」とか「このセッションだけ」のような提供の仕方ではなく、場所や会場単位で対応していくのが良いと思います。

ちょっとおまけで、3を挙げますが、こちらはあまりおすすめしません。


3.編集者なしでスクリーン投影はおすすめできない?

  • スクリーン投影:あり
  • 単語追加:そこそこ
  • 編集者:なし

もちろんないよりはあった方がよいのですが、参加する全員がちゃんとUDトークのことを分かっていることが重要です。何も知らない人がみると簡単に直せる誤認識が放置されているので音声認識の評価を下げるだけなので、あまりおすすめはできないです。


と、いくつか運用パターンを書きましたが、これは「初めて音声認識字幕を見る人がいる」ときのマイナスイメージを避けること、つまり「成功体験」を重視した運用です。音声認識や自動翻訳と言う結果が不確定な技術はこの成功体験が重要で、その先の採用や運用のモチベーションに大きく影響をしてきます。

もし対外的にUDトークを使用するときは、2つの運用を参考にしてみてください。

(もちろん最終的には無人で自動で高精度で動かせるのが理想ですが、それまでは3は見かけたらアドバイスをしてあげましょう…)

【トピック】UDトークを上手に使うための3つのポイント

「どうやったらUDトークを上手に使えるの?」と言う質問、たくさんいただきます。同じアプリなのに「すごくよかった!」とか「まだまだぜんぜんダメだ…」とか、これだけ評価が分かれるアプリも珍しいかもしれません。こちらとしてはこの両極端の評価がさらに「どっちなの?!」と言う探究心をあおってみなさんで考えてくださってるのでそれもまた面白いかなと思っています。

それで評価が真っ二つに分かれるのはズバリ「使い方」なのです。UDトークは使い方一つで両極端に評価が別れてしまうくらい人による運用に依存した「道具」です。うまく使用する方法を3つ挙げてみたいと思います。


1.口を近づけて話す

音声認識の精度は9割がたこれに依存すると言ってもいいと思います。「音をきれいに取る」とも言いかえれます。つまり「スマホと口を近づけて話す」これがポイントです。音源(口)とマイク(スマホ)が離れている状態では音声認識はうまくできません。また音響設備と接続して使用しているときも「マイクと口を近づけて話す」がポイントです。ハンドマイクなどで行っているときは無意識に持って話すのでとてもいい結果が得られます。ただし、いくら音響設備から音をとったとしても集音マイクとか床に置くバウンダリーマイクなどでは音声認識は難しいケースが多いです。

【参考】
【ヒント】UDトークを音響設備に接続して使用する


2.単語登録をする

2つ目に「編集する」が来なくて意外と思った方も多いかもしれませんが、「口を近づけて話す」がしっかりとできている場合、単語登録をきちんと行うことで多少誤認識はありつつもかなり正しく出てきます。音声認識はただの機械なので「登録されていない単語は絶対にでません」です。なので単語登録をしないで運用するということは基本「ありえません」。大体の評価が低いところは単語登録をしていないケースがほとんどです。「固有名詞が出ないだけ」と考えていませんか?固有名詞がでないということはその前後の文脈における音声認識もできないことになります。最低限「名前」「組織名」「製品名」などは登録しておかないといけません。

【参考】
ウェブで単語登録する(単語登録アカウントの作成)


3.編集をする

1と2ができている状態であれば編集者の負担というのはかなり低くなります。運用例だとスマートフォンで編集をしても十分追いつけることも確認しています。「編集が大変!」「こんなの追いつかない」とよく聞きますが、それは1と2がやられてないケースで起きているのがほとんどです。編集はある程度コツはあります。例えば漢字かな変換は諦めてカタカナやひらがなで修正をしてしまうとか、聞き逃した単語があるときは「***」と「そこに何かがあったけどわからない」と言う修正をすることもあります。つまりリアルタイム字幕ときは「修正する」ことが目的ではなく「伝達する」ことが目的となります。そう考えると修正者の方向性も自ずと見えてくるのではないかと思います。


ぜひ今ちょっとうまく運用できていないなと感じている方はこの3つの点を見直してみてください。また参加したイベント等でうまく使えてないなと言うのを見かけたときはぜひこの3つの点を主催者に遠慮なく伝えてみてください。

アメディアフェア in 練馬

アメディアフェア in 練馬にお越しいただきありがとうございました!

今回Shamrock Recordsのブースには長谷川貞夫さんをお迎えしてご自身の開発「ヘレンケラーシステムプロジェクト」を発表していただきました。はい、UDトークは視覚障害者の方がたくさんいらっしゃるこの展示会には不向き、強力なゲストでブースはいつも満員でした!

じゃUDとーくは?と言うと、別室で行われていた4つのセミナーの全てにリアルタイム字幕をつけていました。もちろんQRコードを発行してお手元でもみれるように。そしてブースではZOOMと併用して「字幕付き生中継」を行っていました。これは説明すると「そんなことがこんな簡単にできるのか!」とみなさん驚かれてました。


練馬開催でかなり交通の便が良くなったのか例年よりも来場者は多かったとのことです。アメディアさんは練馬区を代表する福祉機器の会社さんで、全盲の社長の望月さんにみなさん会いに来たようでなんども「望月さんどこに行ったかしらない?」と尋ねられました。あとうちのブースが入り口付近で来場された方がたくさん長谷川さんに挨拶して行かれたのも面白かったですw

こちらのヘレンケラーシステム、今度はCode for Nerimaのブースで2月2日の「つながるフェスタ」で展示をいたします。コミュニケーション手段として障害を超えた面白いアイデアなのでぜひ皆さんに知っていただきたいと思いました。

ありがとうございました!

【シェア】東京都練馬区の「第2次みどりの風吹くまちビジョン」、アクションプランにUDトークの活用案が組み込まれました!

東京都練馬区の「第2次みどりの風吹くまちビジョン」、アクションプランにUDトークの活用案が組み込まれました!

みなさんご存知のとおりUDトークは東京都練馬区で開発されております(笑)。もちろん東京都練馬区でもUDトークは正式に導入され、Code for Nerimaと言う区民団体により区民協働のツールとしてもイベントで活用されております。

この度「第2次みどりの風吹くまちビジョン」のアクションプラン(戦略計画)の一部にUDトークの活用が組み込まれました。

戦略計画 21 窓口から区役所を変えるの「3 案内が正確・迅速に行われます」の一部からの引用です。

ーーー
高齢者、障害者、外国人の皆さんなどへの案内に、音声文字表示・翻訳の機能をもつ音声認識アプリ(UDトーク)の活用を進めます。
ーーー

「高齢者、障害者、外国人」と明記し、UDトークと言う名称がアクションプランに記載されることは練馬区の事業者としてこれほど嬉しいことはありません。これからも練馬区に貢献していきたいと思います。

ぜひ他自治体の方も参考になさってください。この件についてのお問い合わせは練馬区まで!

■戦略計画 21 窓口から区役所を変える
https://www.city.nerima.tokyo.jp/kusei/keikaku/vision2/visonap20181210.files/v2ap-s21.pdf

■練馬区報
https://www.city.nerima.tokyo.jp/kusei/koho/kuho/201812/20181206165152711.files/1211_all_sp_1-4.pdf

■第2次みどりの風吹くまちビジョン アクションプラン[戦略計画](素案)
https://www.city.nerima.tokyo.jp/kusei/keikaku/vision2/visonap20181210.html

SEMICON Japanセミナーステージ(TechSTAGE)のすべてのセッションでリアルタイム字幕を提供します!

セミナーステージ(TechSTAGE)のすべてのセッションでリアルタイム字幕を提供します!
SEMICON Japan、日本最大級のエレクトロニクス製造サプライチェーンの国際展示会です。こちらの3つのステージでUDトークによるリアルタイム字幕をアクセシビリティサービスとして提供いたします。

お手元のスマホやタブレットへ配信します。誤認識の編集は今回行いませんが、単語登録を事前にきちんと行っているので内容は把握しやすくなっていると思います。これについては各ご意見あると思いますのでぜひ参加してどうだったかをシェアしていただけるとありがたいです。

こういう「すべてのセッションに自動字幕」というのが展示会では増えてきました。そしてもう来年にはあたりまえになっていく手応えは感じています。

ちなみに今回UDトークは協賛という形で関わっております。こうしてウェブページにロゴなど配置していただけるだけでOKですので、ぜひお問い合わせください2〜3ヶ月前からご提案いただけると良いかと思います。

■SEMICO Japan
http://www.semiconjapan.org/jp/

■TechSTAGE
http://www.semiconjapan.org/jp/programs/techstage

■UDトークについて
http://www.semiconjapan.org/jp/UDTalk

AccSellポッドキャスト第151回に出演しました(全文ログ公開)

AccSellポッドキャスト

第151回: 「なんで聴くっていう行為だけ時間軸に制限があるのかなって風な感じなんですよね」
https://accsell.net/podcast/0151.html

【中根】
こんにちは、アクセシビリティの情報サイト「アクセル」がお送りするポッドキャスト第151回、2018年11月21日頃配信予定号です。
中根です。

【植木】
151度目ましてインフォアクシア植木です。

【いずいず】
いずいず、今、大阪に住んでんのと言われますが、ずっと東京に住んでます。
山本泉です。
よろしくお願いしますよろしくお願いします。
なんかFacebookとかで、たまに大阪で登壇してるとか大阪にいるっていう、2ヶ月に一辺ぐらいの投稿なんですけど、確か2ヶ月に一辺とか1ヶ月半に一辺ぐらいは大阪には帰ってるんで。
大阪にいる投稿していますが、それよりも全然的に東京での投稿の方が多いにも関わらず、大阪投稿が目立つらしいんですよね。
うーん謎い。
という感じです。

【中根】
そうですかめっちゃ東京弁って言いながらず、このポッドキャストずっとやってる人なので何かちょっとその辺も。

【いずいず】
かなり東京ナイズされてますですか。

【中根】
失礼しました。

【いずいず】
どういたしましてを気になさらず。

【中根】
あまり気にしてませなかった。

【いずいず】
じゃあことで11月21日と言いますとですねいろんな記念日がありますが、いくつかあります。
早慶戦の日、インターネット記念日。
カキフライの日、任天堂の人かあるんですが。
もう一つ、11月21日というのは、フライドチキンの日なんですって。
1970年昭和45年の11月21日に名古屋市郊外に日本ケンタッキー・フライド・チキンの第1号店がオープンしたということで11月21日がフライドチキンの日なんですって。
名古屋が一号店だった。
ね。
だから私は大阪の箕面が1号店だとばっかり思ってた。

【中根】
食べ放題があるとこだよね。

【いずいず】
あそこが1号店だとばかり思ってたので今回これを見てあそう?え!と思ったんですけど。
ここでフライドチキン、私のファーストフードめっちゃ大好きで。
この1970年前後にマクドナルドやらフライドチキンやらミスタードーナツはいろいろとファストフードがどんどん日本に入ったり1号店が開店したりというところなんですが中根さん植木さんフライドチキンが話でもいいですし好きなファストフードのお店だったりとか、思い出とかいい話とかがあったらお願いします。
中根さん。

【中根】
好きなファーストフードはモスバーガーとケンタッキーフライドチキンですかね。
ケンタッキーは実は結構国によってはケンタッキーに限らないと思うんですけど、国によって出しているメニューが違っていて。
アメリカでもあれもしかしたら州とか地域によって違うのかもしれないですけど。
アメリカの僕が行ったところだと激辛みたいなのが定番メニューであるんですよね。
激辛かオリジナルか、またはクリスピーかみたいな。
選べるみたいな。
日本は何か季節物で辛いやつが出てきたりしますけども大して辛くないっていうそういうのはあったりするんですが、何かそういうのであと東南アジアの方に行くとまた全然違うメニューがあったりするので、まずこれはマックとかもそうなんですよね多分ね。
なので、なんか実は結構海外に行ったときに、日本でよく知っているファストフードに入ってみるといろいろ違いが見えて面白いってのがありますね。

【いずいず】
なるほど、ありがとうございます。
植木さんはいかがですか?。

【植木】
♪。

【中根・いずいず】
歌わないで、これ怒られるやつかな、カット。

【植木】
ファストフードは最近はほとんど食べてないかな。
昔はバーガーキングが好きだったけどもう最近バーキンてないな。
でもね鶏からは好きだよを鳥からにビールかな。

【中根】
そりゃうまいっすね。

【いずいず】
最近お店で鳥からハイボールってお店最近増えてますね。

【中根】
たしかにね。

【いずいず】
そうなんですサントリーがやってるんですよね。
ファーストフードかどうかはよく分からないけど串カツが好きです。
紅ショウガが大好きです。

【いずいず】
美味しいね!。

【植木】
以上です。

【いずいず】
ありがとうございまする紅しょうがは大阪でも串カツの定番ですね。
先ほども私も、ケンタッキー大好きで、やっぱり突然食べたくなるファストフードの一つで、先ほどあれですよね、中根さんが国によって味が違うっていうのがあったときにちょっと思い出したのが3年前に2年前、3年前に香港に行ったときに、香港のケンタッキーにはエッグタルトが売ってるんですよ。

【中根】
そうそうそういうやつもそうそうそう。

【いずいず】
その香港のケンタッキーのエッグタルトがめちゃくちゃ美味しくて、なんか割と何回か食べたなって、わざわざ香港のケンタッキーにエッグタルトを求めていったりとかっていうのをしたなっていう思い出と。
あと植木さんのバーガーキングの話でいくと、最近私バーガーキングの率が増えていて、それはなぜかというとですね。
LINEの会員なんですよ。
私はバーガーキングの。
で、たまにクーポンでめっちゃ安くなったりするので。
それで、バーガーキングそのクーポンで食べに行くっていうことをやってます。

【中根】
なるほど。

【いずいず】
めちゃめちゃ安くなるんで多分に2〜300円ぐらい安くなってるんで。

【中根】
半額ぐらいがいいんじゃないですか。

【いずいず】
そうすごいとか、あとポテトと飲み物は実質無料みたいな感じの。
ハンバーガー代だけでっていうハンバーガー代だけであとは全部残りのセットのサイドは全部無料みたいなだったりするので、割と使ったりとかしてます。
ってことで皆さんのファストフードが大好きな話のお便りお待ちしてます。

【中根】
ます。
はいでは本題に入っていきたいと思いますけれども今回は11月第二回目の配信ということで毎月2回目の配信ではゲストの方をお迎えしてお送りしています。
ということで今回もゲストの方をお迎えしていますのでまず簡単に自己紹介をお願いします。

【青木】
青木秀仁と申します。
Code for Nerimaという団体の代表をしたりとか、あとアプリ開発したり会社をやったりとかしております。
好きなファストフードはですね、最近割とモスバーガーを食べてますね。
モスがファーストフードかどうかって議論もまたあるが確かに話は長くなると思うんですけど。
やっぱファストフードは海外とか行くと助かりますよね。
ご飯食べるときなんかにねやっぱりどこで食べても同じだし、量も値段もわかってるから安心だし。
今日はよろしくお願いいたいよろしくお願いします。

【中根】
はいということで青木さんのお名前を聞いてピンと来る方っていうのは相当何かしら詳しい方だと思うんですけれども。
そうですねいろんな活動されてると思うんですけれども、おそらく、一番メディアへの露出が多いのは、さっきほどアプリ開発などをっていうふうに、すごくフワッとおっしゃってましたけど、その中の一つであるところのUDトークなんじゃないかという気がするんですが。
はい、UDトークについてはこのポットキャストだったりとかでもちょっと何回か取り上げたことがあるんですけども。
簡単にどんなものなのかとか説明していただいていいですか。

【青木】
わかりました。
UDトーク簡単に言うとも音声認識使って声を文字化するアプリですが、スマートフォンで動いてですね、よくねラジオとかそういう音声媒体でUDトークの説明をと言われるとですね非常に見せながらやるデモなので難しいんですが、そうですねまさにこうやって今喋ってる音声をどんどんリアルタイムに文字化をしていくっていうところが基本アプリの基本の機能になります。
そうすると、例えば聴覚障害持った方へのコミュニケーションが、そのアプリを通してできるとも喋ってる声が聞こえないわけなので、声を文字化してあげると、画面に出てきて、相手に見てもらうとコミュニケーションができると言ったところのアプリです。

【中根】
こういう音声認識技術自体はもうずいぶん前からいろんな有名どころで言えばドラゴンスピーチとか、あとUDトークでも採用されていると思うんですけどAmiVoiceとか。
そのあたりが超老舗というかもうどうですかね。
90年代の後半ぐらいからドラゴンなんかあったような気がするんですけれども、最近は何かGoogleとか音声認識エンジンとかも非常に賢くなってきたりとかっていうのはちょっと最近また動きがあるかなとは思うんですが、とは言え音声認識自体は結構前からあったわけですがこのUDトークはもともとあった音声認識技術をどういうふうに活用してどういうふうに見ててどういうふうな便利機能に仕立て上げてるんでしょうか。

【青木】
今ちょっとドラゴンスピーチとかAmiVoiceで出ましたけど、僕もともとAmiVoiceで働いてたんですよ。
そのちょうど90年代後半、2000年の頭ぐらいからAmiVoiceの会社、株式会社アドバンスト・メディアですね。
そこでもずっと13〜4年働いてて、実は音声認識とスマホのアプリで言えば割と第1人者ですね。

【いずいず】
自分で言った(笑)。

【青木】
誰も言ってくれないから(笑)。
もしかしたら知ってるかもしれませんが、「音声認識メール」ってアプリがあって、何か割とポンと売れたアプリがあるんですけど、それとか本当にまだスマホアプリとかGoogleがスマホに音声認識搭載する前から半分は音声認識でメール書いてみようみたいな感じのアプリでうんすごい売れてるアプリなんすよね。
そういうのをアドバンスト・メディアで作ったりだとかですねやってました。
だから多分それぐらいのときなんて全然音声認識なんか認識しなかったんで。
闇の10年があるわけですよ、音声認識、全然認識率が上がらなくそうですねすごいね。
そうここ数年ここ二、三年ですかねやっぱ人工知能技術が音声認識に入ってきてもかかわっている僕らもちょっと気持ち悪いぐらい認識精度が上がったんで、本当に本当にこんな認識するんだみたいな感じで。
やってる本人たちが一番驚いてるっていうね。

【いずいず】
アドバンスト・メディアっていう会社では開発をされてたんですか?。

【青木】
そうですそうです議会の議事録を作るシステムを開発してて、そう。
実は今自治体の議事録ってもう10年ぐらいから音声認識でやってるんですよ。
知ってました?。

【いずいず】
知らないです〜。

【青木】
そう、知らないんですよ。
だから例えばね、割と議会の議事録の公開、早く公開するとかオープンにするんみたいな感じではわーわー言ってて、なんか早く公開できないのかみたいな感じに言っているじゃないですか。
言ってるんですよ。
そうだから音声認識使ってやってるんで実は中3日ぐらい出来上がってるんです。
議事録自体はでもそういう議会の議事録を作るのを音声認識を使ってずっとやっててそういうシステムの開発をしていてお陰様で今結構全国でも200何自治体は音声認識で、その議事録を作るシステムが入ってるのかな。
東京都議会も、それ入ってるんですが。
それを作って、スマホアプリをなんか作るって話になった時に、誰もMacユーザーがいなかったというですね。
やっぱり皆Windowsの世界なんで、僕Mac使えますよという話をしたらじゃあちょっとiOSのアプリとかやってみるって話になって、そこでiOSのアプリと音声認識っていうふうなのをやる仕事をもらって、今に至るって感じですよね。

【中根】
なるほど。

【青木】
だいぶ飛ばしました(笑)。
だから何て言うんですかね、結局コンシューマ向け、要は量販店で売ってる音声認識って正直おもちゃなんですよ。

【中根】
そうですねえ。

【青木】
それこそドラゴンスピーチとかAmiVoiceにしたってビックカメラで売ってらっしゃったんで結構おもちゃで、そうやっぱりB to Bの世界で使う音声認識ってすごい、前から精度が高かったんですよ。
上がらないにしろとチューニングしたりとかして。
ただやっぱりそのあとにね、もちろんiOSとかAndroidにも音声認識が標準で乗ってきて、GoogleなんかAPIを公開したいとかして、それこそ今あとワトソンとかそういうのも音声認識があったりとかするので。
それで一般の方が触れるようになってきて、何か音声認識便利じゃないみたいな話になってきて大分高浸透してきた感じはあります。

【中根】
UDトークが出たのが2013年ぐらいですか?。

【青木】
そうですねそれぐらいです。

【中根】
それぐらいだとまだSiriとかもまだですよねきっと。

【青木】
そうなんすよ。
ちょうどなんか出始めたなんかで出るんじゃないかみたいな感じになって、でもGoogle音声認識はもうスマホには、Androidの方にはあって、たしかあったかな。
UDトーク出した頃ももうそれだけからクラウドで音声認識するシステムを採用したんですが、やっぱりまだまだ今みたいにすごい認識するなあっていうふうな感じはなかったんですよね。
確か2014年ぐらいにAmiVoiceも、ディープラーニング、AI技術を取り入れた音声認識に切りかえていってそこでもうガンと上がったんですよね。
例えばそこでやっぱりAmiVoiceのっていうのはB2Bの世界での音声認識だったからなかなかそれがコンシューマレベルで使えるってなかったんですよね。
それがそのタイミングでちょうどUDトークが、無料アプリで世の中に出てたので。
高い精度の音声認識を一般の方が体験する機会ができたんですよ。
タイミングがちょうどよかったんですよ。
なんか広がりつつも無料のアプリであって、そこに最新の音声認識を積むことで、一般の人がいわゆる日本製の最高峰のエンジンを触れたわけですよ。
体験すると、やっぱり体験するとやっぱすごい広がりは早かったですね。

【中根】
そうでしょうね。

【青木】
なんかそれまでいろいろPRしたいとか、こういうところで使えますよっていうふうな感じで、宣伝とかしたんですけど、なかなかアプリが広がらなかったんですけど。
何か認識率は上がったら、なんかやっぱ自然と広がっていったんですよね。

【中根】
そうですね何かUDトーク自体を使ってどうこうっていう話を聞くようになったのはすごく目立つようになってきたのはここ2〜3年ぐらいかなっていう印象があってそうなんすよ。
前は登場したときは登場したっていうことでちょっと話題にはなってたんですけれども。

【青木】
そうなんですか?!。

【中根】
地道にやってらっしゃるっていうことぐらいしか知らなかったのが2015年16年あたりからなんか急にUDトークを使ってやってみたらすごかったみたいな記事だったツイートだったと思う見かけることが増えたなっていう所はありますねなんかね。

【青木】
結構地道にやってた感はあります。
こっちもでもやっぱり思ったのは認識率高いとみんな使うんだなって思いましたね。
やっぱ美味いラーメン屋には並ぶんだなっていうふうにね(笑)。
よかったったのはUDトーク自体のアプリに関しては地道に機能追加はしたんですよ。
その編集がしやすいようにするだとか、見やすいようにするだとか、結局そこの機能が音声認識率がぐんと上がったときに、すごいマッチしたんですね、全体的に。
多分それが何か認識率上がってからやってたんであればまた結構時間かかったかもしれない。
何か多分認識率は上がるなんて少しもくろみあったので、なるほど。
それでそこをめがけて、アクセシビリティだとかUIだとか、機能とかをどんどん追加してって、それで認識がガンと上がったらなんかすごいバランスが良くなったっていうふうな感じのは自分でも何か覚えてますね。

【中根】
なるほど、確かにいろんな機能がなければ、かつ、例えばその1人で喋ってる講演者の音声を認識して文字化すればいいだけっていう話だったら他の優秀な音声認識エンジンが優秀になってくれればそれでそれに負けちゃうかなっていう気はするんですけれども。
例えばGoogle Docsについて音声認識とかも結構最近すげぇなって思うことがあるんですけど。
あれを使って喋ってる人がいて、後で共同編集者が適時、直していくみたいなことをやれば結構な品質ものは出来るだろうなって気がするんですけれども多分UDトークの場合だと、もうちょっといろんな機能、編集に便利な機能だったりとか、いろんなシチュエーションに対応できるような機能があったりするのかなという気がするんですけれどもその辺の何かUDトークの特長、機能的な特徴みたいなのって。

【青木】
そうそれでやっぱりよく最近聞かれるようになったんすよ。
やっぱGoogle Docsとかでやる、これやったら出来たみたいなブログも結構あったんだとか。
Google Translatorとかマイクロソフトが出していらっしゃるかというだけが違うので正直、僕は音声認識が普及すればいいんで、そういうアプリ関係に関してはどんどん使ってもらえばいいと思うんですね。
ただUDトークにしかできないことっていうのはやっぱり長時間なんですよ。
長時間のスピーチを音声認識してリアルタイム字幕を提供していくっていうところなんすよね。
これでも世界中探してもUDトークしかないんですよ。
これができるのは、それ何でかなというふうに考えたら、いわゆるリアルタイムの字幕をがーっと出していくことが、人間の作業ではできないのって日本語なんですよ。

【中根】
そうですね。

【いずいず】
へぇ〜。

【青木】
そうだから音声認識のこういうリアルタイム字幕で使うっていうニーズってもう日本独自なのかなあというふうに思うわけですよ。
英語圏だと打てるんですよね。
例えば聴覚障害者のサポートって話で言うとまたアメリカとかすごい障害者に対するサポートっていうのはもう国でやんなきゃいけない決まってるので、それで文字を打つ人たちってのも仕事でちゃんとあったりだとか。
そう言う中で、全文に関しては英語に関してはリアルで打っていける言語であると、ただ日本語に関してはもう全文をリアルタイムに打つことってのは不可能なので、そう。
そうすると音声認識を使ってこうやって字幕を文字にリアルタイムに出していくってニーズがあると。
だから何か多分あんまりこのUDトークのニーズに関しては海外の方はピンとこないのかなっていう所はあるんですよね。

【中根】
なるほど。

【青木】
なんで人が打たないの?みたいな感じで。
実際これ僕今年WWDC行ってきて、Appleの。
Appleの人にこのアプリとか見せてこうやってやってるんだみたいな話をしたら、特にあんまりアクションなくて。
でもやっぱそうなのかなというふうにちょっと思ったところもあって。
なんか日本独自の音声認識のニーズってのが、長文長時間スピーチをリアルタイムに出していくっていうふうなことなのかなとは思いました。

【中根】
そうですねやっぱりアメリカなんか多分80年代ぐらいからだと思うんですけどそのテレビの字幕リアルタイム字幕とかって急速に増えたんですけれども、僕自身は見えないのであれですけど見れてる人に言わせると例えばNFLの実況中継とかでも2秒か3秒ぐらいのタイムラグでワーッて流れるっていうんですよね。
そうそうそう。
実際それでできるんですよ。
やっぱりタイピングが早く来ると思ってっても問題なくできると思うんですよね。
だけど、日本語はやっぱりそれは厳しいなっているの素人考えでもわかるレベルと思うので、そこのニーズはやっぱり日本語独特なのかもしれないですね。

【青木】
なので実際には聴覚障害の方へのサポートみたいなのはパソコンで打ってる人たちがいるわけですね。
ただそれもも実際には20%ぐらいと言われてます要約して打ってるんで。
それでいいかどうかっていうふうなことに関しては正直また言うともめるので言わないですけど(笑)。
福祉の分野でもめちゃうので。
ただやっぱりニーズとしてはもう最近は若い聴覚障害の方なんていうのはもうネットの文化で全文を読んでるわけですよ。
ブログとかで、それでも文字を読むことに関しては抵抗がないのでもうとにかく全文が欲しいっていうふうな要望はすごいあるんですよね。
そうでしょうね。
そう。
そこでやっぱりUDトークがいいというふうなことが要望がすごい来るようになってきてるっていうのは現状としてはあります。

【中根】
多分そこを間違いなくて、なんだろうな、手話がいいか要約筆記がいいかっていう選択肢のもう一つの選択肢として全文テキストがいいかっていうのがないのがおかしいっていう話だと思うんですよね。

【青木】
そうなんですよ。
だから現状福祉の制度で決まってるのっていうのが、今では福祉のアクセシビリティって決まってるのが手話通訳と要約筆記なんですね。
UDトークに関しては、福祉の制度でないんで採用されないんです。
そうそう、そんなそれはやっぱり変な話であって、正直、手話だって聴覚障害者の中でも分からない人だっているわけだし。
全文が欲しいという人だっているわけだし。
選択肢として用意するところでどれか1個だけ選ぶみたいなことを結構するわけですよ。

【中根】
そうなんですよね。

【青木】
そういうとこにちょっと疑問を感じ始めると結構イライラしてくるわけですよ(笑)。

【中根】
わかりますそれはそうなんですよほんとに(笑)。

【青木】
なので、もう僕自身は全然福祉の人間ではないですよねとUDトークを作ったきっかけってのも音声認識とアプリを作ってたんでなんかちょっと聴覚障害のそういう活動されてる方がちょっと興味を持ってもらって引き合わせてもらって。
実際僕がそこで初めて聴覚障害の方に出会ったわけですよ、人生で初めて聴覚障害の方に。
そこでその方は中途失聴者っていう方で途中で聴こえなくなったので喋れるんです。
喋れるので向こうの言ってることはわかるわけですよ。
ただこっちから喋ることがわからないのでなんかそん時にどうしようかなと思ったら、もちろんその時は手話なんかできるわけもないし、筆談でやってもいいし、タイピングしても僕わりと早く打てるからいいかなと思ったけどなんかもうちょっとできないかなと思って。
そしたらそれとスマホもあるし、音声認識も扱える身だからちょっとこれでアプリ作って見たらなんか自分のそういうスキル不足とかそういうのを補えるかなと思ってプロトタイプを作って、で持ってったって感じなんですよね。

【中根】
なるほど、これはプロトタイピングそういうふうに思い立って作り始めて実際にする製品というかリリースするまでどれぐらいの期間でした。

【青木】
早かったですよ、一ヶ月くらいかも。
変な話、アプリなんてリリースしてからが勝負ですから。

【中根】
それは間違いないですね。

【青木】
ぶっちゃけ出したもの勝ちなんですよ(笑)。
おかげさまでやっぱAppleは全部記録に残してくれるんでストアに。
何年何月何日に出したっていうことが残ってればそのあと後発が出てきたってうちが一番初めだよということは言えるわけなんですよ。
そうですね。
うんどうせ出してから要望くるし、あんまし自分1人のニーズなんかで作ってももちろん自分のニーズを満たすのが第一条件ですけど。
やっぱりそっからいろんな人の意見が入ってきて、それを採用したりとかして作っていくのがいいかなと思ってとりあえずもうプロトタイプのまま審査が通るぐらいの状態で出しちゃいましたね。

【中根】
もともとアドバンスト・メディアにいらっしゃったっていうお話されてましたけど、そのときもまだアドバンスト・メディアの人としてやってたんですか?。

【青木】
あとその時は僕もともとアドバンスト・メディアのフリーランスのプログラムだったんで、そのしがらみがなくですねアドバンスト・メディアの業務、契約を自分の会社にもそういう切り換えてましたね。
2011年に会社を作ってるのでそれで、そのタイミングでちょっと会社作ったからっていうので契約も切り替えて、ちょっと音声認識のアプリとかも何か作ってみたいからライセンスちょうだいって、ちゃんと買いましたよライセンス(笑)。
アドバンスト・メディアから仕事ももらいつつ、常駐で働きもしていろいろやったりとかして、それはもう自分の会社でやってましたね。

【中根】
そうなんですね。
なんか最初にUDトークの記事を見たのがいつだったかちょっと覚えてないですけど2014年とかぐらいに紹介記事みたいのを見ておもしろいことやってる人いるなと思って調べたときに、会社名、会社名を見て、音楽系かなって思ったんですよ。

【青木】
はいはいはいはい音楽系ですね(笑)。

【中根】
音楽系のところが何か趣味でやってるのかなって一瞬思ったんですけれども。
ですねその後にキャリアハックかなんかでインタビューされてる拝見して、どっちかっていうとこれが本職なんじゃん?!とすごいびっくりした記憶があるんですけど。

【青木】
そうそこの話しをね、今ね一瞬するかしないか迷ったんですけど、はい会社名がShamrock Recordsってレコード会社なんですよね。
実際リアルにレコード会社で僕もともとミュージシャン、音楽やっててCDとか出してた、だしてるんですよ。
実は僕、iTunes Music Storeの方にもあるんですよ。
結構なにげにストア全制覇してたりするんですよ(笑)。
Shamrock Recordsって屋号を作ってインディーズでCDをリリースしてて、例えばアマゾンとかにも出てたりとか、Music Storeにもでてたりとかっていうんで、もう結構そのころはいわゆる音楽活動するにしたって別に大手の事務所に入んなくてもインディーズとしてレーベル作ってCDも販売しているということが全然できた時代ですね、それでもう本当に自分でレーベル作ってやってたんですけど、ちょうどバンドが解散したんですね。
解散して次どうしようかなと思ったときに、ちょっと真面目な話しすると2011年なんすよ。
震災のちょっと前にバンドを解散して、それをいろいろ次どうしようかなと思ってるときにその震災が起こったんすよ。
うんそうでそれでなんかちょっと考えるところもあって、なんかちょっと世の中に対して社会貢献じゃないけどできることは何だろうなって考えたときに、音楽じゃねえなと思ったんですよね(苦笑)。
そうなんか自分のスキルを活かすってことちょっと考えると、何か音楽ではなくて今やってるプログラムでアプリ作って何かちょっとこう世の中が少し便利になるようなものが何か提供できないかなと思ってたらちょうどそのときに、起業するっていうふうなちょっとことをぱっと思いついて、ちょっと会社作ってみようかなと思って。
そう先輩の行政書士の人に相談したらですね何かすぐできるよと言われてなんか2週間で出来ちゃって、2週間で出来ちゃった何やるか決める前に会社を作ったっていうですね、全然僕は全然事業をやるとかで会社をやったわけじゃなくて、なんかちょっと会社作ってみたら何かできるかなみたいな感じに思ったんです。
それで会社名どうする?ってなったときにもう何でもいいやと思ってShamrock Recordsにしよう。
そう本当ねすみません適当でなんか(笑)。
でもやっぱり作ってよかったらなと思ってやっぱり起業して法人になるってなるとすごい社会的責任とかですね。
そういうのがやっぱり生まれるわけですよ。
やっぱり法人だからできることですごい増えるし、法人だから話せる相手とか行ける場所なんてものすごいふえるわけなんですね。
それでいろんなところに顔出したりだとか、いろんなところに話をしに行ったりとかっていうふうなことが出来てくると、なんかちょっとこういうこともできるなとか、やっぱ会社作ると仕事を作れるんですよね自分で。
もう何を名乗ってもいいわけじゃないですか。
何を作っても言いわけだし、何か自分で仕事を作れるのは会社だなと思って、面白いなあって。
それでいろんなアプリを出し始めてその中の1個でUDトークを作ることになってって今に至ると言うことですね。

【全員】
なるほど。

【青木】
いまから考えると、もっととまず真面目にその事業を始めるつもりで会社やってればいっぱい利用できるで助成金だとかね、あったんですよね。
なんにもそういうのが利用できないまま、事業が進んでしまって、結果的にうまくいってるから良いっちゃ良いんですけど。
だから何か今でも会社の代表として何か事業を動かしてる人みたいな感じで講演依頼が来て行くとすごいこそばゆいですよね。
そんなことを考えて始めたわけじゃないところは多少あります。
いま音楽はもう全然、一応会社の定款には、音楽事業と入れてるんですけど、もう今はもう全然作る作業とかじゃなくて、趣味で楽器の演奏するぐらいで、楽しくやってます。

【中根】
今はもうこういうアプリ開発が中心ですか?。

【青木】
そうですね。
うちも本当に、UDトーク1本だけだし、会社の僕と嫁さんしかいない2人だけの会社なんですよ。
従業員とかいないんですよね。
そうなんだか最近だとUDトークがすごい売れてくるとですね、すごい今Shamrock Recordsは大きい会社なんだなと思う人が出てきて、よくうち結構僕がFacebookとかそういう好きなんで、Facebookに投稿したりとか、いわゆるブログとかもいっぱい書いてあるんですよ。
あるとき「青木さんとこの会社の広報の人すごいな」って。
うちの会社もああいう広報の担当がほしいです、って(笑)。
ありがとうございます。
すいません中の人全部僕ですね(笑)。

【中根】
もう実質開発はお一人で、奥様もやられる、開発される方ですか?。

【青木】
うちの奥さんは経理総務ですね。

【中根】
それだけで大変ですね、ちっちゃくても大きくても。

【青木】
そうですねなので、僕の仕事は嫁さんの仕事を楽にしてあげるためにいろいろ社内の業務を自動化していくって言う。

【中根】
重要ですね。

【青木】
そうですね。
この開発はもう僕だけやってますね。
大変ですよ、結構今の時代のアプリ開発は、もういろんな言語できないと、開発できないんで。
結局UDトークは今、Android版もiOS版もあるのではーい、やっぱ両方とも、開発言語を覚えなきゃいけないとこですねえ。
そうで一応Windows版でもその編集用のアプリとか出してるんでそっちもやらなきゃいけないし。
且つですね僕はC++っていうのの割とスペシャリストだったんですよ。
フリーランスのときは。
今ですね、アプリ開発の分野でC++で言語を使わないんでしょうね。

【中根】
そうですね。

【青木】
なんかこないだ何かブログのアンケートでもなんか今一番仕事があるのって言うのはC++って言語はあるらしいんですけど、やっぱ過去に作ったシステムのメンテナンスだとか、基幹系のコアな部分をやったりとかって言語なんですよね。
まだまだそういうので仕事はたくさんあるちゃうんすけど、アプリでやる上には上ではほぼ使わないのです。
自分が一番得意だった言語は捨てて、そっからアプリの言語をいろいろ勉強して覚え直してって感じなんで。

【中根】
そうですね確かにiOSもAndroidとWindowsっていうと、それで最近で一つのフレームワークで全部全部やるみたいなのが結構流行ってますけどやっぱり速度とかやっぱりちょっとね、厳しいですよねえ。

【青木】
そうななんですよ、もうあれ痛い目しかあったことなくて(苦笑)。
お客さんからの仕様でくるんですよ。
それでこれで1個でやれば工数減らせるじゃないかとか。
そういやもう絶対悪いこと言わないからやめた方がいいですよっていうふうにいうんすけど、だから実際ちょっとだめな目に会ってみないと気が付かないみたいで。
絶対やっぱり一回経験していると、やっぱり各OSにネイティブで組む方が全然後々楽です。

【中根】
そうですよね、チューニングとかしようがないですもんねなんかね、ああいうのって。

【青木】
そうなんすよ。
iOSのインターフェースはやっぱiOSなんですよ。
やっぱAndroidのインターフェイスはAndroidなので、同じものを提供したってやっぱり使いにくいですよ。
それぞれにそう、だからちょっと大変だけど、ネイティブでの言語で組んだ方が多分いいものが作れるし、後々楽かなあというところでやってます。

【中根】
そうですよね。
何かアクセシビリティ的な観点から見てもネイティブのやつ使ってネイティブの標準ライブラリを使ってる方が危険なことをしなくても特に、なんていうんすかね。
誰でも比較的どんな環境でも動くものができたりするから楽だと思うんですよねえ。

【青木】
OSのバージョンアップにちゃんとついていけるのですね。
今アクセシビリティって言葉でましたけど、アクセシビリティ=体験なんですよね。
やっぱり新しいOSが出たらすぐバージョンアップしたいわけです。
ある一定の数の人たちは。
でもそれが何か使っているアプリがまだバージョンアップできてないからとか、追いついてないからっていうね。
何かその体験を止めてしまうのはすごく開発者としてはですね。
だめなんじゃないかなということです。
特にAppleなんですごい事前にOSのベータ版出して、テストもできるように準備をしてくれてるのに。
それを開発者がちゃんとそのOSリリースときにアプリのバージョンアップとかもし動かないんであれば、間に合わせれないということは、すごいユーザーに対してアクセスビリティを阻害してるなと思うので。
何より自分が一番新しいOSを使いたいんで(笑)。

【中根】
それはすごいわかりますけど(笑)。

【青木】
わかるでしょう。
やる気がみなぎるわけです。

【中根】
そうなるほど。

【青木】
そうなんすよ。

【中根】
UDトーク結構どんな場面で使われてますよって紹介記事とかも最近よく見るになってきてるんですけれども、一番わかりやすいのは例えばさっきの講演会で講演者が喋ってるのをリアルタイムで提供するみたいなんだと思うんですがなんかもっと他にも例えば複数人がいるような場面であったりとかでもという力を発揮するのかなっていう気がするんですがその辺どんな工夫とか機能とかがあるありますか?。

【青木】
これアプリ同士で簡単に通信ができる機能があるんですよ。
そのアプリの上で、QRコードを発行して、それを相手の端末で読み込む等も簡単に繋がる。

【中根】
なるほど。

【青木】
結構実は今、デバイス同士で、初対面の人がこうつないで、もしやりとりするってできないんですよね。
割と個人情報のラインとかでもID交換しないとできないし、フェイスブックなんかでも。
例えばその機能があるとそのシンポジウムとかで、字幕をスクリーンに出しますよね。
実はスクリーンに出すのってすごくアクセシビリティ悪いんですよ。
前にいかなきゃ見えないし、過ぎたものも見えないし、だから実はUDトークにおいては、スクリーンに出すのでただのパフォーマンスなんですよ。
やってる感を出すため(笑)。
大事ですよっていう。

【いずいず】
たしかにやってる感めっちゃありました!。

【青木】
アクセシビリティ取り組んでます感、めっちゃ出るでしょうね?。

【いずいず】
めっちゃ出てた!。

【青木】
実益を考えると、手元で見えた方がいいです字幕は。
しかもさかのぼってみえるし、その手元で見るための機能としてそのQRコードを発行して、各端末で読み込んで手元で見えると。
始まる前とかにそのQRコードも印刷しちゃって、事前に全員に配ったりとかしておくと、手元でも見えるし、もしかしたら遅刻してこれない人なんかでもQRコードがあるとくるまでの途中に文字放送でみれるわけですよ。
途中でトイレに行ったってトイレの中で見えるわけですよ。
これがやっぱりいわゆる本当の意味での字幕のアクセシビリティなのかなと思って、もちろん手元で文字の大きさも変えられるし。
UDトークは翻訳機能もあるんでもとで自分の見たい言語に設定してみることもできるわけです。
やっぱりその文字情報のリアルタイムキャプションというのは結局はオンデマンド型で、自分の見たい情報の形にしてみるっていうのが本当に多分提供する形としてはいいんですよ。
だからある程度パフォーマンスの時期が終わったら正直スクリーンとか僕なくてもいいと思ってるんですよ。
今はちょっとまだねやっぱり福祉の観点で言うとそういうのがあるんだよっていうふうなパフォーマンスとかPRが必要なのでわりと出すようにって感じてるんですけども。

【いずいず】
やってることが追えるっていうのがすごくて、その前に神戸の「アクセシビリティの祭典」のときに気づいたのが他の人たちも言ったんですけど、ちょっとメモを取っている間に話が流れて「聞き逃した!」って時とかに、UDトークで目の前でスマホで追えるんで、この話だったかとかっていう感じで。
聞き逃しところが遡れるっていうのがすごい便利だったんですよねえ。

【青木】
そうそう、いいこと言いますね!。
それって今のいわゆる仕事やってる人、若い人って言い方でもないんですけど、いわゆる講演とかスピーチとセミナーとかに参加するスタイルが変わってきてるんですよね。
いわゆる一昔前だと、話しはしっかり聞くものだったんですよ。
講演者の顔を見てしっかり話を聞くもの。
だから、よそ見をしてると聞いてないっていうふうな判断になるわけです。
でも最近だと、皆話を聞きながら、そういえばツイッターとかでリアルタイム中継したりだとか、そういうことを自分のパソコンにカタカタメモったりとかするじゃないですか。
実は何で聞くっていう行為だけ時間軸に制限があるのかなっていうふうな感じなんですよね。
そうすると結局最終的にはその講演とかに参加して内容が理解できれば良いはずなので、喋ってる音声情報だけ、強制的に時間軸で進んでくっていうのを、今の参加スタイルに合わない。
そうか発信をしてる間ってのは逆に聞くのは止めてしまって、また講演に戻ったときには、こういうリアルタイムブログで遡って何話したっけなあというふうに追ってすぐ追いつけるわけです。

【中根】
そうそうですね。
さっきの前方のスクリーンにリアルタイムのキャプションを出すっていうだけだとせっかく文字化しているのにその文字化していることのメリットを完全に殺していることになってしまうので。
やっぱりそれもったいないっていいなと思う反面、確かにそのパフォーマンスというかPRみたいなことってすごく重要で、こういうものを必要としてる人がいるんだっていうことをわからせるっていう意味ではやっぱりインパクトおっきいんですよねあれ多分スクリーンでてるねそうそうそうです。
確かにおっしゃるとおりしばらくは必要なのかもしれないけど、ゆくゆくはなくなるのかもしれないですね、ああいう前にあるスクリーンで出すっていうのは。

【青木】
逆にもうすごい派手に出すんであれば、むしろすごいインタラクティブな感じがしていいんですよ。
それこそ「アクセシビリティの祭典」だともう話者のすぐそばとか、パネリストの後ろに見えるところにボンって置いてたんでいいんですけど。
もうねえ、僕はもう本当福士の字幕って本当端っこに置いてあって。
変な話、手話通訳の人だって全然端っこに立ってるじゃないですか。
あれこそ喋る人の真横とか後とかに立ってやるのが当然だしでアクセシビリティの祭典はそれをちゃんとやっていたので、僕はすごいなと思ったわけです。
そう。
まさにアクセシビリティだなと思って。
だからいうのをやっぱりむしろやるんであればもっとエンターテイメント性とかですねインタラクティブな感じで、ああいう情報支援なんかをやっていくと。
そのためにはやっぱりスクリーンに出すっていうのをもっと工夫してですね。
ドンと大きく出すとか複数枚出してみるとか、そんな感じでやれば何かいいのかなと思いますよね。
出す意味があるかなそうですね。
そう。
全部あるのがいいですよね手元でも見れてスクリーンもあって、もちろん字幕生中継の生中継の配信もあって、そこにさらに字幕も付くみたいな感じで。

【中根】
そうなんですよ、なんかやっぱり理想的にはあらゆる手段があってその中からそれぞれが一番良いと思うものを選べるようにするのが良いんだけれどももともとはそれは無理だよねっていう話だったのが今別にやはりできるじゃんっていうレベルまで来ていると思うので。
何か方向性としてそっちをもっと提供したいですよね。

【青木】
そうそう、やっとここで僕初めに自己紹介したCode for Nerimaの話になるんですが(笑)。

【いずいず】
美しい流れだ!。

【青木】
UDトークの話で結構いろいろ言うわけですよ、こういうふうにやったらいいじゃんとか、もうこれできるからやればいいじゃんみたいな。
でもなんかそれって実際本当にできるの?みたいな話になるわけですね。
なんかもう実際にやってみようって思って、じゃあどうしようかなと思ったら、じゃあ自分で団体作って自分のちょっと思いつく限りのアクセシビリティとかインクルーシブとか、もうそういうのを盛り込んで活動してみようと。
なんかそういう活動できる母体がないかなと思っていろいろこう探した結果、なんかシビックテックって言葉があって、Code for JapanとかCode for Tokyoとか。
そういうグループがあるわけです。
ちょうどやってる内容的にもそのシビックテックってシビック+テクノロジーですけど、ITを使って地域課題を解決するみたいなことが面白いなと思って。
ちょっとCode for Nerimaって、僕練馬区の会社で練馬区に住んでるんですけどCode for Nerimaって誰がやってるのかなと思ったらやってなかったんですよ。
すぐドメインとって(笑)。

【中根】
重要、重要(笑)。

【青木】
ですよね。

【いずいず】
先に取れって(笑)。

【青木】
で、結局だから誰もいなかったので、Code for Nerimaは僕たち上げようとか思って立ち上げたんですね。
そう。
Code for Nerimaで、実際そのCode for ってその自治体のオープンデータとかそういうのもちょっと扱ったりとかするんですけども今って割とCode forの活動は、各団体多岐にわたっていて、わりと何やってもいいのでCode for Nerimaでまず活動する内容は後から決めるにしても活動方法に関しては、もうそういうアクセシビリティには徹底的にこだわって、手っ取り早いところだととりあえず全てのイベントにはリアルタイム字幕をつけようと、そうで翌日、翌々日ぐらいにもうイベントの全文記録を公開しようと思っうそう大きくその二つですねイベントの開催方法として。

【いずいず】
イベント記録はUDトークで置いてるからデータはあるから、あとはちょっと編集して載せるっていうことが可能っていうことなんですか?。

【青木】
そういうことですね。
もうUDトークの機能を使うと1回イベントをやるときに例えば誤認識の編集なんかをしていくんですけども、もう今はそれはもううちメンバー全員でやるんですよ。
もうメンバー全員に編集権限与えて喋ってるところでもう編集できる人がやってってー、みたいな感じでやるんですね。

【いずいず】
編集ってのは喋ったことが文字化されるけども、漢字変換がおかしかったりとか言葉がちょっと上手く文字変換されてないときに手動で直すっていうことを編集っていうことであってますか?。

【青木】
ありがとうございます、その通りです。
実際には音声認識ってなんかよく精度はどうなのとかって聞かれるんですけれども、正直、精度は100にはならないんです。
運用は何が正しいかっていうわからないんですよ。
例えば、言い間違えたときに、音声認識どう出すのが正しいっていうと結局答えがないんですね。
そういいましたのを間違えて字幕に出しちゃうと字幕は間違っているじゃないですか。
でも音声認識は正しいです。
そこで何かちょっと人工知能が忖度してですね、間違いを正しくしてあげると、字幕はあってるんだけど、音声認識としてはどうなのかって話もあるわけじゃない。
そうですね。
その忖度が正しいかどうかもわかんないです。
結局その音声認識の正さっていうのはあんまり議論しても仕方がないんですよね。
じゃあどうするかっていうと、音声認識の間違ったのをその場に応じて適切に直せるのって、実は人間の仕事なんです。
人間にしかできない仕事なんですよ。
だからありがたくやりましょうというふうに言ってます(笑)。
だんだんAIで失われていく人間の仕事で唯一の残っているのは音声認識の結果を直す仕事なのでありがたくやらせていただきましょう、と(笑)。

【いずいず】
AIのおかげで仕事があるわって感じですね。

【青木】
そう。
そうなんですよ、実はAIで仕事が奪われると勝手に騒いでいる人たちにいいたいのは、仕事がふえるからって言うんですね。

【いずいず】
心配するなと(笑)。

【青木】
そう心配しなくても増えるからと。
逆に人工知能のトレーニングとか、音声認識の精度を上げてくのって実は人間にしかできない仕事なので。
絶対に人間の仕事ってのは形を変えて残っていくんですよね。
そうです。
ただ今はそのシンポジウムとかで例えばUDトーク使う場合に関しては1人か2人ぐらい張り付きで、音声認識の誤認識を直していくっていうふうなスタッフを割り振っておくと正しい字幕を出していけるというふうな仕組みになっています。
もちろんその編集者は何でもいいので会場全体に公開してしまってもいいしほどのスタッフ決めてやってもいいしっていうので、Code for Nerimaの場合はもうそこにしている参加メンバー全員で編集をしていって、その都度、新しい字幕を出していくっていうふうな形でやっています。

【全員】
なるほど。

【青木】
その結果、いわゆるリアルタイム字幕が常にあるので、聴覚障害の方とかがすごい来やすいんですよね。
その後に全文記録が出るので、そこにこれない方なんかでも参加している感じになるんです。
これ翌日には全部共有できるし。
例えばイベント開いてこれない方って、予定が合わない方だけじゃないんですよね。
例えば視覚障害の方なんかで介助が必要な方とか、ガイドヘルパーがが必要な方とか、そういう方もこれないわけですよ。
雨が降るとやっぱり車いすの来づらかったりだとか、そういうことも全部含めるとこれない方への情報提供をすることってすごい参加の機会の増えるんですよ。
「うちのイベント字幕あります」とかっていうふうにすると、今まで参加することができなかった聴覚障害の方がまわりにすごいいるかもしれない。
そしたらやっぱりくるわけですよ。
よく何かそういうのを話したときにいやうちの団体はそういう人が来たいっていうふうに言われたことがないんですよねって言われるんですけどそれは当たり前でし、そういう人が来れる設備とかそういう状況がないから、そもそもこないわけです。

【中根】
そうですそうです。

【青木】
だからよくビジネスのシーンでもそういう話はするんですけどいまなんでアクセシビリティに取り組む必要が企業はあるのかとかそういう話とかで。
結局その潜在顧客とか、アクセシビリティに取り組むことによって、実はまわりにすごいそういうビジネスの対象になるだとか、市民団体だったら参加したいと思ってる人がいるってことにアクセシビリティに取り組むと気がつくわけですね。
そしたら僕なんかでも聴覚障害の方に初めて出会うまでは周りに1人もいなかったんですよ、聴覚障害の人って。
でも1人友達になってこういうのを作って世界に入ってみるともう僕の周りには山ほどいるんですよ、聴覚障害の人が。
でもその人たちは昔からいたんですよ。
自分がそういうことに気がついて、そういう取り組みをすることによって、潜在的にあった、そういういた人たちが、気が付けば自分は気がつき始めるわけですよ。
そうですね。
そうそれでビジネスやる部分にもすごい企業にとってもメリットになるし、顧客のビジネスチャンスも広がりますよね。

【中根】
そうですね、やっぱりよく聴覚障害の方が言うこととしてその「字幕あります」とか「手話あります」とかないところにどうしても行きたければ問い合わせるけれどもでもどうぞどうせだめだろうと思うから問い合わせないみたいな話はやっぱりよく聞くし。
あとそうそう僕自身も例えばこれは一般的に考えると視覚障害の人が来ると迷惑だろうなって思って勝手に忖度して問い合わせないなんていうのは平気でしょっちゅう起こることだから、そこを「あります」っていうだけでぐっとハードルが下がるんですよね。

【青木】
そうなんすよ。
もちろんその方法というのは大変だったわけですよ。
やっぱり全部人がやるわけなのでところが今テクノロジーで字幕は出るようになったわけですよ。
ある程度、これらが使わない手はないだろうと。
本当にわかりやすいんですよね、その人の作業の負担を減らすためのテクノロジーってまさにこの字幕の世界であって、とりあえず置いとけば、字幕は出るんで。
テクノロジーの使いどころってそこなんですよね。
結局やらないとゼロなんですよ。
でもテクノロジーを使って字幕を出すと。
とりあえず手を何もつけなくったって0が1になるじゃないですか。
そうそしたらそこに掛け算をしてるわけですよ。
編集する人をつけてみようだとか音声認識の単語登録をしてみようだとか、そういうふうにまずは0を1にしないと掛け算ができないわけなんですよね。
テクノロジーはやっぱり0を1にするってところができるものなので、だから今は本当に昔大変だった、もちろんまだ手話通訳に関しては手話の手話通訳がやることにはなっていますけれども、まだしばらくはやるんじゃないかなと思うんですけど、字幕に関して言うと、いわゆるこういうアプリとかでできる時代になってきたのでもう本当にいろんな団体とかがこういうのを知ってもらって、気軽に字幕をつけてもらって、そういうふうに、聴覚障害の方なんかは気軽に参加できる環境というのは作ってもらいたいですよね。

【中根】
そうですね。

【青木】
そう大変じゃないので。

【中根】
そうですね、確かにここのもう本当ここのところの音声認識の精度の上がり方とかを考えるともうそろそろ気軽にやってもいいかなって感じになってきましたね、本当にね。

【青木】
そうなんすよね、しかもスマートフォンとタブレットとかその辺が少しあればできちゃう。
みんなが機材持ち寄ってできるんですよね。
そういうのを実際にやってみよう、やってみないと説得力ないなと思ってもう本当にCode for Nerimaをやってよかったなと思うのは、やっぱりそういうふうな環境を見に来る人もふえるわけですよ。
なんかそういうアクセシビリティとかインクルーシブってもうそこら辺で言いまくってるので、うんCode for Nerimaちょっと見に来てみようというので、見に来るわけですよ。
そうすると本当に環境がインクルーシブな感じになってるわけですよ。
やっぱり懇親会なんかにもみんな来るんですよ。
聴覚障害の方も視覚障害の方も。
そうすると飲み会もすごいいろんなコミュニケーション方法を駆使して。
飲み会をインクルーシブにってのは結構重要でして。
実はUDトークを一番どこで使うために工夫してるかっていうと飲み会なんですよね。

【中根】
それ結構大変じゃないですか?!。

【青木】
大変なんすよ。
正直シンポジウムとか会議とかそういうところってもうUDトーク使ってだいぶもう解決できるんで、もういいですよ、任せておけば(笑)。
飲み会に関してだけは、やっぱり何とかこれをテクノロジーでうまくできないかなと思うんですよ。
今もまだ試行錯誤中です。
最近はガンマイク買ってみたりだとか、そう収録用の。
今は割とピンマイク用意しておいたりとかワイヤレスマイク用意しておいて、喋る人のところに持ってってですね、やってみるとか。
そんな感じのことはちょっとやってみんなで工夫しながらやってますね。

【中根】
なるほど、それはなかなかチャレンジングですけどこれはできるとかなりインパクトが大きいですねえ。

【青木】
そうですそうです。
別にコミュニケーションは別にそれだけでもなくてやっぱ手話も入ったりだとかですね、あとはやっぱり視覚障害の方がいたりとかするんで必ず喋る前には名乗って、こっちから今青木が喋りますよみたいな感じで名乗って、話しとかするんで。
なんかそういう体験、それも一個の体験だし、そういう会話のルールですよね、そういうのが必然的にCode for Nerimaに参加していると身に付いていくというか、立ち上げてそういうイベントとか懇親会を通して何か見てるとすごくなんか楽しいんですよね。

【中根】
イベントは、イベントの自体はどういう内容のものをやられてるんですか?。

【青木】
今はもう大きくですね、月1回やる定例会と、月1回やるセミナーっていうのに大きく分かれてますね。
定例会はもう毎月何かネタがあったらやるしって特にネタがないというふうにはもうメンバーの方に自己紹介プレゼンをしてもらうと。
ショートプレゼンを。
それで回して懇親会メインでやってます。
セミナーに関しては、毎月1回外部、外部内部で講師を立てて、そういう話題のトピックについて話したりとか、こないだグラフィックレコーディングについてので。
ITによらずいろいろやってみたりとか。
わりとだからITに絡むというよりは何かいわゆるメソッドの紹介ですよね。
こういうふうにやると情報共有しやすいだとかこういうのを使うとやりやすくなるんだとか。
なんか割と幅広く講師はそういうふうに起用して企画しています。

【中根】
これはもうあれです、興味を持った人だったら誰でも参加できる感じですか?。

【青木】
そうですね。
無料で参加できます。

【中根】
特に練馬に関係がない人も大丈夫ですか?。

【青木】
練馬区以外の人もいっぱいいます。
練馬が好きな人は、練馬に興味がある人はもう幾らでも来ていただければ。

【中根】
練馬に興味がある人!なるほど(笑)。

【青木】
みんな練馬自慢をするんでね(笑)。
練馬区の印象って何か半分ぐらい畑だとかですね、大根しかなとか、JRも通ってないとか。
例えばUDトークに関しては練馬区はもう練馬区全域で導入してるですよ。
なのでうちは練馬区にある企業として練馬区にもUDトークを納品してるんですよね地元企業として。
それもあってCode for Nerimaも練馬区とのコネクションがもうある状態で始まってるんですよ。
主には協働推進課って言われる。
いわゆる区民協働ですね。
そういうのをやってるところと、情報政策課とそのあたりと割とCode for Nerimaが組んで、イベントとかに対応したりとか、してますね。
練馬区はもう練馬区で契約して窓口なんかではUDトークを使って聴覚障害の方に対応したりとか海外の方が来たときなんかでもUDトーク使って翻訳で対応したりとか、そういったことをねやってる実はすごくIT進んだ自治体なんです。
畑とかだけじゃないんです!。

【いずいず】
大根だけじゃないですよと(笑)。

【青木】
大根だけじゃないです!。

【中根】
としまえんだけじゃないぞと。

【青木】
そう練馬区はすごいですよ!。

【中根】
というところで何かずっと黙ってる植木さん何か質問ありますか?。

【植木】
なんか不思議な感覚ですね。
収録に参加しているのにリスナーのように聞き入ってました。

【いずいず】
私もです。

【青木】
喋りすぎてないですか?僕(笑)。

【植木】
全然大丈夫です。
流暢なんでラジオ番組聞いてるような感覚で。
うなずきなから聞いてました(笑)。
UDトーク結構最近、僕らの周りでも知られてきていて、多分今日のこれ聞いて、例えばセミナーとか勉強会とか。
主催してる人なんかはちょっと今度使ってみようと思った人もいらっしゃると思うんですけど。
初めてUDトークを使ってリアルタイムの字幕を例えばサブスクリーンか何かに移したいと思ったときに、何を。
どんなふうに準備すればいいんでしょうか?。

【青木】
そういう人のためにですねホームページにオンラインマニュアルがすごい充実してますから(笑)。
なんか最近そういうイベントで使いたいっていうのはすごくあると、だったらもうイベントで使うためのマニュアルっていうのをもう1個作っちゃおうと思って。

【植木】
がーさすですね(笑)。

【青木】
そうですねもうここは手順通りにやればもう「アクセシビリティの祭典」と同じことができると。

【植木】
詳しくはWebでと。

【青木】
そうですね。
ホームページのトップのところにオンラインマニュアルっていうのがあって、そん中の1個に何かイベントで、イベント開催時のマニュアルっていうのを作ってあるんです。
もうそれを見ていただくと、もう本当手順通りやっていただければ。

【全員】
いたれりつくせりじゃないですかぁ。

【青木】
そうなんすよと結構やっぱ今、オンラインのマニュアルだとか、SNSなんかで使い方のシェアとかってすごい重要で結構そのオンラインマニュアルの作り方なんかもぶっちゃけ汚いんんですよ、すごい。
結構重複してるのが山ほどあって。
でも結局作るタイミングによって全部手順も違うんで。
内容が若干同じでも複数マニュアルってもあってもいいのかなぐらいの感じで作ってるんです。
だから検索したら何か同じような感じでいくつか引っかかるんですけど。
多分それで微妙に中が少し違ったりとかするんで、その人に合ったものを見ていただければいいかなみたいな。
なんか、従来みたいに行こマニュアルってすごい綺麗に製本しなきゃいけないっていうのはなんかちょっともうニーズに合わないかなと思うんだだからこれはちょっと一つ何かマニュアルのアクセシビリティみたいな感じで、とらえてはいるんですよ。
どうやったら見やすいが、どうやったら使いやすいかどうか。

【植木】
でも、イベントでUDトークを使うと思うと、お高いんでしょう?(笑)。

【青木】
なんと無料なんです。

【全員】
えー!(笑)。

【青木】
UDトーク自体はほとんど無料アプリでやってますと、一応もう本当完全無料のものだと、一応少し制限があって本連続で30分、音声認識ができます。
30分たったらアラートが出て止まるんですよね。
また押したら30分いくんですけど、これの制限は月額240円のアドオンを買えば解除できます。

【植木】
え?お幾らですって?。

【青木】
月額240円です。
例えば30分おきにボタンを押す人がいれば無料ですよ。
それは人間の人間しかできない仕事なんでありがたくやってくださいね。

【植木】
使わない理由はありません!。

【青木】
ありませんね。
ただ実はどこで僕がビジネスしてるかっていうのは、法人向けのプランなんですよね。
無料版のアプリっていうのはその喋った音声をこちらで全部いただいて蓄積して、その音声認識の精度向上に再利用してるんです。
これ勘違いされるのは、漏えいではなくて、しっかり管理をした上で個人情報を抜ききって純粋に人工知能の学習なんかに再利用をしているんです。
それはもう無料バージョンになりますので。
でもやっぱり一般企業さんとかですね。
それ自治体とか教育機関とかっていうのはプライバシー扱う情報が多かったりとか。
機密情報があったりとかするんで、やっぱその人工知能の学習なんかに再利用されてしまうとちょっとコンプライアンス的なそういうのがあるんですね。
なので学習に回さないものを提供するときには月額で月額利用料って形でビジネスとしています。
法人向けプランってのでうちのUDトークがビジネスのメインの収入源になってくるだろう。

【植木】
あと教えてください。
YouTubeとかを使っていわゆるウェビナーってやつですね。
ライブでこう配信するなんていうときに、UDトーク孝使ってリアルタイムで字幕を出したりなんてことができたりなんかしちゃったりなんかするんでしょうか?。

【青木】
えっとですねUDトーク並行して使えば字幕を届けることができると思います。
例えば今UDトークに関しては、このQRコードを発行すれば、離れた場所にも字幕を送れるんですよ。
なので、例えばYouTubeとかFacebookのストリーミング配信と並行してUDトークのQRコードも発行しておけば見る人はサブスクリーンとしてUDトークで字幕を見ながら画面でYouTubeを見るとか。

【いずいず】
パソコンでYouTube、スマホでUDトークの文字みたいな感じですね?。

【青木】
iPadだと画面分割できるんで、YouTubeとUDトークみたいな感じで。
一画面でやることも出来ますんで。

【植木】
でもウェビナーで使うとしたらやっぱりお高いんでしょう?(笑)。

【青木】
いや無料です。
基本的にそのUDトークに関しては法人に出してるプランなのものと無料のと機能差はないんです。
全く。
だから別に無料のものでも全く機能制限なくですね同じことを提供することができます。

【植木】
やでも本当に今までセミナーの情報保障っていう意味では、よくパソコン要約筆記の人をお呼びして、要約筆記の方たちのテーブルと椅子席を用意して会場でスクリーンをもう一つ用意して、結構物理的ななんだろう、負担と当然その要約筆記をお願いするに当たってのいわゆる経費コスト。
結構そういうのがネックになっていたところがあったんですけどですねこれから本当にUDトークちゃんと使いこなしていけばその辺もきちんとコストも考えずにクリアできるのかすごくすばらしいというかなんというかこれは積極的に僕自身使っていきたいなと思いました。

【中根】
そうですね、要約筆記とか手話通訳とか。
手話通訳はしばらくまたそういう感じだと思うんですけど要約筆記とか手配するときの大変さっていうのがすごい思った以上のもので、お金があり余ってる人たちは別に、常にお願いすればいいと思うんですけど、なかなかそうもいかない人たちっていうのはいて、そうすると必要だっていう参加者からの要望があったら、依頼するみたいなやり方に当然なるんですがそうすると何週間前までにはみたいな話になったりとかあとせっかく依頼したのに必要だと言った人がこっこれなくなるとかっていうことが起こったりとかっていうことも考えなきゃいけないので結構なんかねえ、大変なんですよね。
だけどそれを考えずにもう最初からUDトークでの字幕ありますって書いとくだけで済むんだったらそれはもう毎回やればいいじゃんって話になりますもんね。

【青木】
そうそういうことです。
すると予想通り、僕はちょっと要約筆記の人から嫌われて(笑)。
これ結構実は切実な問題でいわゆる福祉の制度に入ってないって話をしましたけどやっぱり要約筆記の人たちがやりたくてもUDトークなどできない。
やりたくない人もいたりとかするんですけど(苦笑)。
非常に今要約筆記のあり方っていうのに対してUDトークがすごい議論をよんでるっていうのは実際あるんですよ福祉の世界で。

【中根】
確かにそれ要約筆記でそれなりの技術能力が高い方だったらUDトークの編集とかもお手のものだろうし。
それをちゃんと要約筆記と同じなりそれに相当するような謝礼を受け取ってやれるんだったらその方が絶対、いろんな人にとっていいような気がするんですよね。

【青木】
そうなんですよ。
だからそのあたりに関しては正直面倒くさいので僕かかわるのが(笑)。
ですけれども、いろんな地域の人たちからも話は聞いたりとかして、いろいろ把握はしてるんですけども。
どっちかっていうと地方の人たちの方がUDトークに関してはすごく取り組んでいきたいというふうな気持ちも持ってます。
なぜそもそも人が少ない、支援者が少ない、要約筆記者が少ない。
だから、人が少ないから例えば要約筆記だとどうしても何人か揃っていかないといけないじゃないです。
何人か人が揃わないといけない。
揃わないケースが多く、そうですね。
今まで支援に出たくても出なくて悔しかったと思うしてるとこもあるんです、地方の方は。
実はUDトーク使うと、1人でも支援でいるわけですから。
最悪ね、設定して1人で編集してって形でも支援ができるのですごい支援のできる機会が増えたんですよね。
実はもういくつかの自治体ではもう自治体の派遣する要約筆記の人がUDトークを使えるようになってると。
実はそれで別に大本に決まっているわけではなくて、自治体ごとに決めてもいいですよ。
それでやってるところがあるんですけど、実はそれUDトーク使えるっていうふうに、使って支援ができるっていうふうになお、表に出したら、要望が増えたらしいんです。

【中根】
そうでしょうね。

【青木】
だから何かそういう例ができてくるとだんだん今要約筆記で、それこそさっき言ったその人工知能が人間の仕事を奪うのかみたいな話になってるわけですよ。
特に都市部の人が多くて。
その部分とからだんだんいわゆる軟化していって要約筆記の人たちがUDトークを使って、そういうふうに支援活動をやってくれるなるのかなってとこですよね。

【中根】
そうですね要約筆記ってだいたい2人ひと組だったりもっとちょっと規模が大きいやつだった4人組だったりとかで派遣されなきゃいけないからまずそれ大変なんですけど、あとそれを依頼する側はもう依頼するっていうのは聴覚障害がある方も自分1人のためにちょっとやってもらうのには大げさすぎるかなみたいなそういう気後れみたいなことがあるから、そこのハードル下げるのはすごい重要で、あと行政の側での福祉制度としての問題に関してはもうこれはね、こういうものがありますっていうことを紹介するだけでよくってあとはもう当事者の側から声を上げてかなきゃしょうがないと思うんですけど聴覚障害者本人からね。
だから聴覚障害がある当事者にもっと知ってもらってもっと使ってもらって良さをわかってもらってみたいなことをしていけばその結果としてもう制度の方も変わらざるをえなくなるっていうふうな方向をそういうふうな持って行き方をするのが多分一番いいんだろうなと思いますよね。

【青木】
そうですね福祉のアプローチでももちろんありなんですけども、やっぱり僕はそのシビックテックっていうわりといい切り口を見つけて、例えば先月ぐらいに先々月かなCode for Japan Summitっていうのがあったわけです。
新潟でやったんですけども、2日間で40ぐらいのセッションがあったんですが。
もう全部のセッションにUDトークの字幕付きなんですよ。
何かこれが逆にちょっとそういう福祉よりのところだとなんか今回はこのセッションだけ、この部屋だけとか、何か部分的なところだけどシビックテックそもそもテクノロジーを細胞とがいわゆるミッションなので。
もうもうやるならもう全部つけちゃうよみたいな感じになるわけですね。
なんかよりそっちの方が福祉的には充実しているんですよね、情報保障的には。
何か福祉の切り口でUDトークを持っていくよりは、もうもシビックテックとか、そういうことを私も自分のテクノロジーの活用な方向で持ってって。
だから字幕なんかも普通に出るよねえぐらいな感じで意識付けた方が、ちょっと広がりやすいのそうですね最近思ってるんですよね。

【中根】
それ当たり前だと思った聴覚障害者以外の健聴者の人たちがそういうのを何だろう。
広めていく普及させていく、手段として福祉があるのに使えないっていうのはどういうことだ!って文句を言ってくれるぐらいの方がいいのかなっていうちょっとそうですね。

【青木】
そうそうそう。
でも文句言う価値もなければもうそれでいいわけですよ。
みんながUDトーク使ってるのであれば。
福祉の制度なんかに頼らないように、少なくとも聴覚障害に関して言えば、福祉の制度に頼らなくても自分たちだけでもうわわりと解決できる方法もあるわけですよ。
実際だからそういうのもあって、やっぱりその協会活動だとかそういう障害者活動とかっていうのは結構聴覚障害の分野だとそんなに活発ではないんです。
ここで解決できるような環境も整い始めているので、そうそれ考えると思う今のCode for Nerimaなんて別に福祉の制度を何も使っているわけでもなく、充実してるわけですね。
同じような感じでシビックテックって切り口でテクノロジーを活用していく、団体が増えていけばそれでいいのかなっていうふうには思います。
そうですね。
だからこないだの「アクセシビリティの祭典」なんかでも内容的にもすごいアクセシビリティですごく充実してたし、テクノロジーを使ってやるっていうことに関しては何も違和感なく、皆さん見てるわけですよ。
逆に皆さんすげーなみたいな感じで取り上げてくれれば多分他にも使ってみようと思う人が出てくるわけだし。
多分あの場はUDトークの字幕を何か聴覚障害者のためにあって便利だねと思った人は1人もいないと思うんですよ。

【中根】
そうですね。

【青木】
これは何か情報を補完するためのすごくいい手段でこれからはこうだよねみたいな感じで思ってくれた人の結構いたと思って。
うんそうそれでもういいかなっていうふうに思ってるなるほど。
UDトークに関してはそういえばこの間のアクセシビリティの祭典なんかでもあれ協賛で関わってるんですよね。
正直うちはビジネスとしては企業向けの月額利用料で収益得てるので、ぶっちゃけイベント単体でってビジネスじゃないんですよ。
UDトークの使用に関してはうんそうだから例えばUDトークが協賛って形で入って、例えばいわゆる情報アクセシビリティに関してのいわゆる口出しですよね。
僕が自由にしてもいい形であれば、その協力UDトークって乗っけてもらえるだけで、使用料とか、設備関係に関してはうちから提供するっていうのはできますので。
ただし編集者までお願いしますっていうふうになるとそこはもう実費になりますよね。
自分たちでやるのか、お金払って僕が他に手配するかみたいな感じになるとは思います。
ただ、設備だけいろんな機材とか持ってってた運用とか、そのセッティングとかそういうのをやるのであれば、もう本当に協賛とかパートナーって形で、イベントに関わることはしょっちゅうやってますんで。
ぜひご検討いただければ。
ネタが欲しいので(笑)。

【中根】
それは本格的に検討させていただきます。

【青木】
早めにお願いします(笑)。
そのうち自分たちで使えるような基盤ができれば勝手に使ってもらってもいいわけですし。

【いずいず】
あとこの収録とかも何か青木さん企んでらっしゃるんでしたっけ?。

【青木】
できれば何かこれ全部文字起こしして、なんかそうどっかに公開したいですよね。
せっかくなんでUDトーク使って。

【植木】
でもそれはお高いんでしょ?(笑)。

【青木】
面白いから僕がやりますよ。
僕が喋ってるんだから僕がやりますよ。
けれども、実際その辺のところもそんなに苦労なくちょっとやればできますのでところもなんかお示しできればいいかなって。

【中根】
そうですね、それはちょっと知りたいところだと思いますねこういう感じで比較的なんでしょ、なんかニュース原稿を読むような奴は当然できるでしょってみんな思ってるけどこういうふうに普通に喋ってるのがどれぐらい認識されててかつ編集がどれぐらい大変なのかみたいなのって多分あんまりみんなイメージできてないと思うので、何かそういうことも含めてちょっと情報を出せると良いかもしれないですね。

【青木】
ですよね。
はいなのでちょっとそれはやりたいなと思っています。
ぜひお願いします。

【中根】
ということで大分長くなってきますけど青木さん、他に何か言い忘れたこととか宣伝したいこととかありますか?。

【青木】
そうですねえ。
Code for Nerimaに関してですけれども、ホームページとかFacebookページがあるのでもしよろしければそちらの方に「いいね」していただければと、もちろんUDトークもFacebookページがありまして、うちの会社は広報が優秀なんでね(笑)。

【いずいず】
広報、俺、広報、俺(笑)。

【青木】
そやっぱりそういう情報配信とかは、こちらは積極的にやるようにしていますどこで使われただとか、こういった形があるよとかCode for Nerimaに関してもこういう活動しているよとか、まさに練馬区とこういうふうな活動してるっていうところとかって出してあげると他の団体なんかでも自治体との関わりってこういうふうなことができるんだということも参考になると思うんですよね。
なんか本当に僕は練馬区世界一にしようと本気で思っていて、区民協働とかそういう点において、なんかいろんな人にちょっと参考にしてもらえればいいかなっていうのもありますので、ちょっとCode for Nerimaの方の情報をちょっとゲットしていただくものと、イベントも定例で開催してますのでぜひ来てくださいというところですね。

【中根】
はいということで今回はゲストにCode for Nerimaに今積極的にコミットされているという。
そしてUDトークの生みの親でずっと運用をされているという。
青木秀仁さんお迎えしてお話を伺いましたどうもありがとうございました。

【いずいず】
ということで本日のポッドキャストは以上です!。

【中根】
はいどうもありがとうございます、また次回です。

【いずいず】
まったねー!。

【植木】
お高いんでしょう?(笑)。

【全員】
無料です〜!。