カテゴリー別アーカイブ: トピック

AccSellポッドキャスト第151回に出演しました(全文ログ公開)

AccSellポッドキャスト

第151回: 「なんで聴くっていう行為だけ時間軸に制限があるのかなって風な感じなんですよね」
https://accsell.net/podcast/0151.html

【中根】
こんにちは、アクセシビリティの情報サイト「アクセル」がお送りするポッドキャスト第151回、2018年11月21日頃配信予定号です。
中根です。

【植木】
151度目ましてインフォアクシア植木です。

【いずいず】
いずいず、今、大阪に住んでんのと言われますが、ずっと東京に住んでます。
山本泉です。
よろしくお願いしますよろしくお願いします。
なんかFacebookとかで、たまに大阪で登壇してるとか大阪にいるっていう、2ヶ月に一辺ぐらいの投稿なんですけど、確か2ヶ月に一辺とか1ヶ月半に一辺ぐらいは大阪には帰ってるんで。
大阪にいる投稿していますが、それよりも全然的に東京での投稿の方が多いにも関わらず、大阪投稿が目立つらしいんですよね。
うーん謎い。
という感じです。

【中根】
そうですかめっちゃ東京弁って言いながらず、このポッドキャストずっとやってる人なので何かちょっとその辺も。

【いずいず】
かなり東京ナイズされてますですか。

【中根】
失礼しました。

【いずいず】
どういたしましてを気になさらず。

【中根】
あまり気にしてませなかった。

【いずいず】
じゃあことで11月21日と言いますとですねいろんな記念日がありますが、いくつかあります。
早慶戦の日、インターネット記念日。
カキフライの日、任天堂の人かあるんですが。
もう一つ、11月21日というのは、フライドチキンの日なんですって。
1970年昭和45年の11月21日に名古屋市郊外に日本ケンタッキー・フライド・チキンの第1号店がオープンしたということで11月21日がフライドチキンの日なんですって。
名古屋が一号店だった。
ね。
だから私は大阪の箕面が1号店だとばっかり思ってた。

【中根】
食べ放題があるとこだよね。

【いずいず】
あそこが1号店だとばかり思ってたので今回これを見てあそう?え!と思ったんですけど。
ここでフライドチキン、私のファーストフードめっちゃ大好きで。
この1970年前後にマクドナルドやらフライドチキンやらミスタードーナツはいろいろとファストフードがどんどん日本に入ったり1号店が開店したりというところなんですが中根さん植木さんフライドチキンが話でもいいですし好きなファストフードのお店だったりとか、思い出とかいい話とかがあったらお願いします。
中根さん。

【中根】
好きなファーストフードはモスバーガーとケンタッキーフライドチキンですかね。
ケンタッキーは実は結構国によってはケンタッキーに限らないと思うんですけど、国によって出しているメニューが違っていて。
アメリカでもあれもしかしたら州とか地域によって違うのかもしれないですけど。
アメリカの僕が行ったところだと激辛みたいなのが定番メニューであるんですよね。
激辛かオリジナルか、またはクリスピーかみたいな。
選べるみたいな。
日本は何か季節物で辛いやつが出てきたりしますけども大して辛くないっていうそういうのはあったりするんですが、何かそういうのであと東南アジアの方に行くとまた全然違うメニューがあったりするので、まずこれはマックとかもそうなんですよね多分ね。
なので、なんか実は結構海外に行ったときに、日本でよく知っているファストフードに入ってみるといろいろ違いが見えて面白いってのがありますね。

【いずいず】
なるほど、ありがとうございます。
植木さんはいかがですか?。

【植木】
♪。

【中根・いずいず】
歌わないで、これ怒られるやつかな、カット。

【植木】
ファストフードは最近はほとんど食べてないかな。
昔はバーガーキングが好きだったけどもう最近バーキンてないな。
でもね鶏からは好きだよを鳥からにビールかな。

【中根】
そりゃうまいっすね。

【いずいず】
最近お店で鳥からハイボールってお店最近増えてますね。

【中根】
たしかにね。

【いずいず】
そうなんですサントリーがやってるんですよね。
ファーストフードかどうかはよく分からないけど串カツが好きです。
紅ショウガが大好きです。

【いずいず】
美味しいね!。

【植木】
以上です。

【いずいず】
ありがとうございまする紅しょうがは大阪でも串カツの定番ですね。
先ほども私も、ケンタッキー大好きで、やっぱり突然食べたくなるファストフードの一つで、先ほどあれですよね、中根さんが国によって味が違うっていうのがあったときにちょっと思い出したのが3年前に2年前、3年前に香港に行ったときに、香港のケンタッキーにはエッグタルトが売ってるんですよ。

【中根】
そうそうそういうやつもそうそうそう。

【いずいず】
その香港のケンタッキーのエッグタルトがめちゃくちゃ美味しくて、なんか割と何回か食べたなって、わざわざ香港のケンタッキーにエッグタルトを求めていったりとかっていうのをしたなっていう思い出と。
あと植木さんのバーガーキングの話でいくと、最近私バーガーキングの率が増えていて、それはなぜかというとですね。
LINEの会員なんですよ。
私はバーガーキングの。
で、たまにクーポンでめっちゃ安くなったりするので。
それで、バーガーキングそのクーポンで食べに行くっていうことをやってます。

【中根】
なるほど。

【いずいず】
めちゃめちゃ安くなるんで多分に2〜300円ぐらい安くなってるんで。

【中根】
半額ぐらいがいいんじゃないですか。

【いずいず】
そうすごいとか、あとポテトと飲み物は実質無料みたいな感じの。
ハンバーガー代だけでっていうハンバーガー代だけであとは全部残りのセットのサイドは全部無料みたいなだったりするので、割と使ったりとかしてます。
ってことで皆さんのファストフードが大好きな話のお便りお待ちしてます。

【中根】
ます。
はいでは本題に入っていきたいと思いますけれども今回は11月第二回目の配信ということで毎月2回目の配信ではゲストの方をお迎えしてお送りしています。
ということで今回もゲストの方をお迎えしていますのでまず簡単に自己紹介をお願いします。

【青木】
青木秀仁と申します。
Code for Nerimaという団体の代表をしたりとか、あとアプリ開発したり会社をやったりとかしております。
好きなファストフードはですね、最近割とモスバーガーを食べてますね。
モスがファーストフードかどうかって議論もまたあるが確かに話は長くなると思うんですけど。
やっぱファストフードは海外とか行くと助かりますよね。
ご飯食べるときなんかにねやっぱりどこで食べても同じだし、量も値段もわかってるから安心だし。
今日はよろしくお願いいたいよろしくお願いします。

【中根】
はいということで青木さんのお名前を聞いてピンと来る方っていうのは相当何かしら詳しい方だと思うんですけれども。
そうですねいろんな活動されてると思うんですけれども、おそらく、一番メディアへの露出が多いのは、さっきほどアプリ開発などをっていうふうに、すごくフワッとおっしゃってましたけど、その中の一つであるところのUDトークなんじゃないかという気がするんですが。
はい、UDトークについてはこのポットキャストだったりとかでもちょっと何回か取り上げたことがあるんですけども。
簡単にどんなものなのかとか説明していただいていいですか。

【青木】
わかりました。
UDトーク簡単に言うとも音声認識使って声を文字化するアプリですが、スマートフォンで動いてですね、よくねラジオとかそういう音声媒体でUDトークの説明をと言われるとですね非常に見せながらやるデモなので難しいんですが、そうですねまさにこうやって今喋ってる音声をどんどんリアルタイムに文字化をしていくっていうところが基本アプリの基本の機能になります。
そうすると、例えば聴覚障害持った方へのコミュニケーションが、そのアプリを通してできるとも喋ってる声が聞こえないわけなので、声を文字化してあげると、画面に出てきて、相手に見てもらうとコミュニケーションができると言ったところのアプリです。

【中根】
こういう音声認識技術自体はもうずいぶん前からいろんな有名どころで言えばドラゴンスピーチとか、あとUDトークでも採用されていると思うんですけどAmiVoiceとか。
そのあたりが超老舗というかもうどうですかね。
90年代の後半ぐらいからドラゴンなんかあったような気がするんですけれども、最近は何かGoogleとか音声認識エンジンとかも非常に賢くなってきたりとかっていうのはちょっと最近また動きがあるかなとは思うんですが、とは言え音声認識自体は結構前からあったわけですがこのUDトークはもともとあった音声認識技術をどういうふうに活用してどういうふうに見ててどういうふうな便利機能に仕立て上げてるんでしょうか。

【青木】
今ちょっとドラゴンスピーチとかAmiVoiceで出ましたけど、僕もともとAmiVoiceで働いてたんですよ。
そのちょうど90年代後半、2000年の頭ぐらいからAmiVoiceの会社、株式会社アドバンスト・メディアですね。
そこでもずっと13〜4年働いてて、実は音声認識とスマホのアプリで言えば割と第1人者ですね。

【いずいず】
自分で言った(笑)。

【青木】
誰も言ってくれないから(笑)。
もしかしたら知ってるかもしれませんが、「音声認識メール」ってアプリがあって、何か割とポンと売れたアプリがあるんですけど、それとか本当にまだスマホアプリとかGoogleがスマホに音声認識搭載する前から半分は音声認識でメール書いてみようみたいな感じのアプリでうんすごい売れてるアプリなんすよね。
そういうのをアドバンスト・メディアで作ったりだとかですねやってました。
だから多分それぐらいのときなんて全然音声認識なんか認識しなかったんで。
闇の10年があるわけですよ、音声認識、全然認識率が上がらなくそうですねすごいね。
そうここ数年ここ二、三年ですかねやっぱ人工知能技術が音声認識に入ってきてもかかわっている僕らもちょっと気持ち悪いぐらい認識精度が上がったんで、本当に本当にこんな認識するんだみたいな感じで。
やってる本人たちが一番驚いてるっていうね。

【いずいず】
アドバンスト・メディアっていう会社では開発をされてたんですか?。

【青木】
そうですそうです議会の議事録を作るシステムを開発してて、そう。
実は今自治体の議事録ってもう10年ぐらいから音声認識でやってるんですよ。
知ってました?。

【いずいず】
知らないです〜。

【青木】
そう、知らないんですよ。
だから例えばね、割と議会の議事録の公開、早く公開するとかオープンにするんみたいな感じではわーわー言ってて、なんか早く公開できないのかみたいな感じに言っているじゃないですか。
言ってるんですよ。
そうだから音声認識使ってやってるんで実は中3日ぐらい出来上がってるんです。
議事録自体はでもそういう議会の議事録を作るのを音声認識を使ってずっとやっててそういうシステムの開発をしていてお陰様で今結構全国でも200何自治体は音声認識で、その議事録を作るシステムが入ってるのかな。
東京都議会も、それ入ってるんですが。
それを作って、スマホアプリをなんか作るって話になった時に、誰もMacユーザーがいなかったというですね。
やっぱり皆Windowsの世界なんで、僕Mac使えますよという話をしたらじゃあちょっとiOSのアプリとかやってみるって話になって、そこでiOSのアプリと音声認識っていうふうなのをやる仕事をもらって、今に至るって感じですよね。

【中根】
なるほど。

【青木】
だいぶ飛ばしました(笑)。
だから何て言うんですかね、結局コンシューマ向け、要は量販店で売ってる音声認識って正直おもちゃなんですよ。

【中根】
そうですねえ。

【青木】
それこそドラゴンスピーチとかAmiVoiceにしたってビックカメラで売ってらっしゃったんで結構おもちゃで、そうやっぱりB to Bの世界で使う音声認識ってすごい、前から精度が高かったんですよ。
上がらないにしろとチューニングしたりとかして。
ただやっぱりそのあとにね、もちろんiOSとかAndroidにも音声認識が標準で乗ってきて、GoogleなんかAPIを公開したいとかして、それこそ今あとワトソンとかそういうのも音声認識があったりとかするので。
それで一般の方が触れるようになってきて、何か音声認識便利じゃないみたいな話になってきて大分高浸透してきた感じはあります。

【中根】
UDトークが出たのが2013年ぐらいですか?。

【青木】
そうですねそれぐらいです。

【中根】
それぐらいだとまだSiriとかもまだですよねきっと。

【青木】
そうなんすよ。
ちょうどなんか出始めたなんかで出るんじゃないかみたいな感じになって、でもGoogle音声認識はもうスマホには、Androidの方にはあって、たしかあったかな。
UDトーク出した頃ももうそれだけからクラウドで音声認識するシステムを採用したんですが、やっぱりまだまだ今みたいにすごい認識するなあっていうふうな感じはなかったんですよね。
確か2014年ぐらいにAmiVoiceも、ディープラーニング、AI技術を取り入れた音声認識に切りかえていってそこでもうガンと上がったんですよね。
例えばそこでやっぱりAmiVoiceのっていうのはB2Bの世界での音声認識だったからなかなかそれがコンシューマレベルで使えるってなかったんですよね。
それがそのタイミングでちょうどUDトークが、無料アプリで世の中に出てたので。
高い精度の音声認識を一般の方が体験する機会ができたんですよ。
タイミングがちょうどよかったんですよ。
なんか広がりつつも無料のアプリであって、そこに最新の音声認識を積むことで、一般の人がいわゆる日本製の最高峰のエンジンを触れたわけですよ。
体験すると、やっぱり体験するとやっぱすごい広がりは早かったですね。

【中根】
そうでしょうね。

【青木】
なんかそれまでいろいろPRしたいとか、こういうところで使えますよっていうふうな感じで、宣伝とかしたんですけど、なかなかアプリが広がらなかったんですけど。
何か認識率は上がったら、なんかやっぱ自然と広がっていったんですよね。

【中根】
そうですね何かUDトーク自体を使ってどうこうっていう話を聞くようになったのはすごく目立つようになってきたのはここ2〜3年ぐらいかなっていう印象があってそうなんすよ。
前は登場したときは登場したっていうことでちょっと話題にはなってたんですけれども。

【青木】
そうなんですか?!。

【中根】
地道にやってらっしゃるっていうことぐらいしか知らなかったのが2015年16年あたりからなんか急にUDトークを使ってやってみたらすごかったみたいな記事だったツイートだったと思う見かけることが増えたなっていう所はありますねなんかね。

【青木】
結構地道にやってた感はあります。
こっちもでもやっぱり思ったのは認識率高いとみんな使うんだなって思いましたね。
やっぱ美味いラーメン屋には並ぶんだなっていうふうにね(笑)。
よかったったのはUDトーク自体のアプリに関しては地道に機能追加はしたんですよ。
その編集がしやすいようにするだとか、見やすいようにするだとか、結局そこの機能が音声認識率がぐんと上がったときに、すごいマッチしたんですね、全体的に。
多分それが何か認識率上がってからやってたんであればまた結構時間かかったかもしれない。
何か多分認識率は上がるなんて少しもくろみあったので、なるほど。
それでそこをめがけて、アクセシビリティだとかUIだとか、機能とかをどんどん追加してって、それで認識がガンと上がったらなんかすごいバランスが良くなったっていうふうな感じのは自分でも何か覚えてますね。

【中根】
なるほど、確かにいろんな機能がなければ、かつ、例えばその1人で喋ってる講演者の音声を認識して文字化すればいいだけっていう話だったら他の優秀な音声認識エンジンが優秀になってくれればそれでそれに負けちゃうかなっていう気はするんですけれども。
例えばGoogle Docsについて音声認識とかも結構最近すげぇなって思うことがあるんですけど。
あれを使って喋ってる人がいて、後で共同編集者が適時、直していくみたいなことをやれば結構な品質ものは出来るだろうなって気がするんですけれども多分UDトークの場合だと、もうちょっといろんな機能、編集に便利な機能だったりとか、いろんなシチュエーションに対応できるような機能があったりするのかなという気がするんですけれどもその辺の何かUDトークの特長、機能的な特徴みたいなのって。

【青木】
そうそれでやっぱりよく最近聞かれるようになったんすよ。
やっぱGoogle Docsとかでやる、これやったら出来たみたいなブログも結構あったんだとか。
Google Translatorとかマイクロソフトが出していらっしゃるかというだけが違うので正直、僕は音声認識が普及すればいいんで、そういうアプリ関係に関してはどんどん使ってもらえばいいと思うんですね。
ただUDトークにしかできないことっていうのはやっぱり長時間なんですよ。
長時間のスピーチを音声認識してリアルタイム字幕を提供していくっていうところなんすよね。
これでも世界中探してもUDトークしかないんですよ。
これができるのは、それ何でかなというふうに考えたら、いわゆるリアルタイムの字幕をがーっと出していくことが、人間の作業ではできないのって日本語なんですよ。

【中根】
そうですね。

【いずいず】
へぇ〜。

【青木】
そうだから音声認識のこういうリアルタイム字幕で使うっていうニーズってもう日本独自なのかなあというふうに思うわけですよ。
英語圏だと打てるんですよね。
例えば聴覚障害者のサポートって話で言うとまたアメリカとかすごい障害者に対するサポートっていうのはもう国でやんなきゃいけない決まってるので、それで文字を打つ人たちってのも仕事でちゃんとあったりだとか。
そう言う中で、全文に関しては英語に関してはリアルで打っていける言語であると、ただ日本語に関してはもう全文をリアルタイムに打つことってのは不可能なので、そう。
そうすると音声認識を使ってこうやって字幕を文字にリアルタイムに出していくってニーズがあると。
だから何か多分あんまりこのUDトークのニーズに関しては海外の方はピンとこないのかなっていう所はあるんですよね。

【中根】
なるほど。

【青木】
なんで人が打たないの?みたいな感じで。
実際これ僕今年WWDC行ってきて、Appleの。
Appleの人にこのアプリとか見せてこうやってやってるんだみたいな話をしたら、特にあんまりアクションなくて。
でもやっぱそうなのかなというふうにちょっと思ったところもあって。
なんか日本独自の音声認識のニーズってのが、長文長時間スピーチをリアルタイムに出していくっていうふうなことなのかなとは思いました。

【中根】
そうですねやっぱりアメリカなんか多分80年代ぐらいからだと思うんですけどそのテレビの字幕リアルタイム字幕とかって急速に増えたんですけれども、僕自身は見えないのであれですけど見れてる人に言わせると例えばNFLの実況中継とかでも2秒か3秒ぐらいのタイムラグでワーッて流れるっていうんですよね。
そうそうそう。
実際それでできるんですよ。
やっぱりタイピングが早く来ると思ってっても問題なくできると思うんですよね。
だけど、日本語はやっぱりそれは厳しいなっているの素人考えでもわかるレベルと思うので、そこのニーズはやっぱり日本語独特なのかもしれないですね。

【青木】
なので実際には聴覚障害の方へのサポートみたいなのはパソコンで打ってる人たちがいるわけですね。
ただそれもも実際には20%ぐらいと言われてます要約して打ってるんで。
それでいいかどうかっていうふうなことに関しては正直また言うともめるので言わないですけど(笑)。
福祉の分野でもめちゃうので。
ただやっぱりニーズとしてはもう最近は若い聴覚障害の方なんていうのはもうネットの文化で全文を読んでるわけですよ。
ブログとかで、それでも文字を読むことに関しては抵抗がないのでもうとにかく全文が欲しいっていうふうな要望はすごいあるんですよね。
そうでしょうね。
そう。
そこでやっぱりUDトークがいいというふうなことが要望がすごい来るようになってきてるっていうのは現状としてはあります。

【中根】
多分そこを間違いなくて、なんだろうな、手話がいいか要約筆記がいいかっていう選択肢のもう一つの選択肢として全文テキストがいいかっていうのがないのがおかしいっていう話だと思うんですよね。

【青木】
そうなんですよ。
だから現状福祉の制度で決まってるのっていうのが、今では福祉のアクセシビリティって決まってるのが手話通訳と要約筆記なんですね。
UDトークに関しては、福祉の制度でないんで採用されないんです。
そうそう、そんなそれはやっぱり変な話であって、正直、手話だって聴覚障害者の中でも分からない人だっているわけだし。
全文が欲しいという人だっているわけだし。
選択肢として用意するところでどれか1個だけ選ぶみたいなことを結構するわけですよ。

【中根】
そうなんですよね。

【青木】
そういうとこにちょっと疑問を感じ始めると結構イライラしてくるわけですよ(笑)。

【中根】
わかりますそれはそうなんですよほんとに(笑)。

【青木】
なので、もう僕自身は全然福祉の人間ではないですよねとUDトークを作ったきっかけってのも音声認識とアプリを作ってたんでなんかちょっと聴覚障害のそういう活動されてる方がちょっと興味を持ってもらって引き合わせてもらって。
実際僕がそこで初めて聴覚障害の方に出会ったわけですよ、人生で初めて聴覚障害の方に。
そこでその方は中途失聴者っていう方で途中で聴こえなくなったので喋れるんです。
喋れるので向こうの言ってることはわかるわけですよ。
ただこっちから喋ることがわからないのでなんかそん時にどうしようかなと思ったら、もちろんその時は手話なんかできるわけもないし、筆談でやってもいいし、タイピングしても僕わりと早く打てるからいいかなと思ったけどなんかもうちょっとできないかなと思って。
そしたらそれとスマホもあるし、音声認識も扱える身だからちょっとこれでアプリ作って見たらなんか自分のそういうスキル不足とかそういうのを補えるかなと思ってプロトタイプを作って、で持ってったって感じなんですよね。

【中根】
なるほど、これはプロトタイピングそういうふうに思い立って作り始めて実際にする製品というかリリースするまでどれぐらいの期間でした。

【青木】
早かったですよ、一ヶ月くらいかも。
変な話、アプリなんてリリースしてからが勝負ですから。

【中根】
それは間違いないですね。

【青木】
ぶっちゃけ出したもの勝ちなんですよ(笑)。
おかげさまでやっぱAppleは全部記録に残してくれるんでストアに。
何年何月何日に出したっていうことが残ってればそのあと後発が出てきたってうちが一番初めだよということは言えるわけなんですよ。
そうですね。
うんどうせ出してから要望くるし、あんまし自分1人のニーズなんかで作ってももちろん自分のニーズを満たすのが第一条件ですけど。
やっぱりそっからいろんな人の意見が入ってきて、それを採用したりとかして作っていくのがいいかなと思ってとりあえずもうプロトタイプのまま審査が通るぐらいの状態で出しちゃいましたね。

【中根】
もともとアドバンスト・メディアにいらっしゃったっていうお話されてましたけど、そのときもまだアドバンスト・メディアの人としてやってたんですか?。

【青木】
あとその時は僕もともとアドバンスト・メディアのフリーランスのプログラムだったんで、そのしがらみがなくですねアドバンスト・メディアの業務、契約を自分の会社にもそういう切り換えてましたね。
2011年に会社を作ってるのでそれで、そのタイミングでちょっと会社作ったからっていうので契約も切り替えて、ちょっと音声認識のアプリとかも何か作ってみたいからライセンスちょうだいって、ちゃんと買いましたよライセンス(笑)。
アドバンスト・メディアから仕事ももらいつつ、常駐で働きもしていろいろやったりとかして、それはもう自分の会社でやってましたね。

【中根】
そうなんですね。
なんか最初にUDトークの記事を見たのがいつだったかちょっと覚えてないですけど2014年とかぐらいに紹介記事みたいのを見ておもしろいことやってる人いるなと思って調べたときに、会社名、会社名を見て、音楽系かなって思ったんですよ。

【青木】
はいはいはいはい音楽系ですね(笑)。

【中根】
音楽系のところが何か趣味でやってるのかなって一瞬思ったんですけれども。
ですねその後にキャリアハックかなんかでインタビューされてる拝見して、どっちかっていうとこれが本職なんじゃん?!とすごいびっくりした記憶があるんですけど。

【青木】
そうそこの話しをね、今ね一瞬するかしないか迷ったんですけど、はい会社名がShamrock Recordsってレコード会社なんですよね。
実際リアルにレコード会社で僕もともとミュージシャン、音楽やっててCDとか出してた、だしてるんですよ。
実は僕、iTunes Music Storeの方にもあるんですよ。
結構なにげにストア全制覇してたりするんですよ(笑)。
Shamrock Recordsって屋号を作ってインディーズでCDをリリースしてて、例えばアマゾンとかにも出てたりとか、Music Storeにもでてたりとかっていうんで、もう結構そのころはいわゆる音楽活動するにしたって別に大手の事務所に入んなくてもインディーズとしてレーベル作ってCDも販売しているということが全然できた時代ですね、それでもう本当に自分でレーベル作ってやってたんですけど、ちょうどバンドが解散したんですね。
解散して次どうしようかなと思ったときに、ちょっと真面目な話しすると2011年なんすよ。
震災のちょっと前にバンドを解散して、それをいろいろ次どうしようかなと思ってるときにその震災が起こったんすよ。
うんそうでそれでなんかちょっと考えるところもあって、なんかちょっと世の中に対して社会貢献じゃないけどできることは何だろうなって考えたときに、音楽じゃねえなと思ったんですよね(苦笑)。
そうなんか自分のスキルを活かすってことちょっと考えると、何か音楽ではなくて今やってるプログラムでアプリ作って何かちょっとこう世の中が少し便利になるようなものが何か提供できないかなと思ってたらちょうどそのときに、起業するっていうふうなちょっとことをぱっと思いついて、ちょっと会社作ってみようかなと思って。
そう先輩の行政書士の人に相談したらですね何かすぐできるよと言われてなんか2週間で出来ちゃって、2週間で出来ちゃった何やるか決める前に会社を作ったっていうですね、全然僕は全然事業をやるとかで会社をやったわけじゃなくて、なんかちょっと会社作ってみたら何かできるかなみたいな感じに思ったんです。
それで会社名どうする?ってなったときにもう何でもいいやと思ってShamrock Recordsにしよう。
そう本当ねすみません適当でなんか(笑)。
でもやっぱり作ってよかったらなと思ってやっぱり起業して法人になるってなるとすごい社会的責任とかですね。
そういうのがやっぱり生まれるわけですよ。
やっぱり法人だからできることですごい増えるし、法人だから話せる相手とか行ける場所なんてものすごいふえるわけなんですね。
それでいろんなところに顔出したりだとか、いろんなところに話をしに行ったりとかっていうふうなことが出来てくると、なんかちょっとこういうこともできるなとか、やっぱ会社作ると仕事を作れるんですよね自分で。
もう何を名乗ってもいいわけじゃないですか。
何を作っても言いわけだし、何か自分で仕事を作れるのは会社だなと思って、面白いなあって。
それでいろんなアプリを出し始めてその中の1個でUDトークを作ることになってって今に至ると言うことですね。

【全員】
なるほど。

【青木】
いまから考えると、もっととまず真面目にその事業を始めるつもりで会社やってればいっぱい利用できるで助成金だとかね、あったんですよね。
なんにもそういうのが利用できないまま、事業が進んでしまって、結果的にうまくいってるから良いっちゃ良いんですけど。
だから何か今でも会社の代表として何か事業を動かしてる人みたいな感じで講演依頼が来て行くとすごいこそばゆいですよね。
そんなことを考えて始めたわけじゃないところは多少あります。
いま音楽はもう全然、一応会社の定款には、音楽事業と入れてるんですけど、もう今はもう全然作る作業とかじゃなくて、趣味で楽器の演奏するぐらいで、楽しくやってます。

【中根】
今はもうこういうアプリ開発が中心ですか?。

【青木】
そうですね。
うちも本当に、UDトーク1本だけだし、会社の僕と嫁さんしかいない2人だけの会社なんですよ。
従業員とかいないんですよね。
そうなんだか最近だとUDトークがすごい売れてくるとですね、すごい今Shamrock Recordsは大きい会社なんだなと思う人が出てきて、よくうち結構僕がFacebookとかそういう好きなんで、Facebookに投稿したりとか、いわゆるブログとかもいっぱい書いてあるんですよ。
あるとき「青木さんとこの会社の広報の人すごいな」って。
うちの会社もああいう広報の担当がほしいです、って(笑)。
ありがとうございます。
すいません中の人全部僕ですね(笑)。

【中根】
もう実質開発はお一人で、奥様もやられる、開発される方ですか?。

【青木】
うちの奥さんは経理総務ですね。

【中根】
それだけで大変ですね、ちっちゃくても大きくても。

【青木】
そうですねなので、僕の仕事は嫁さんの仕事を楽にしてあげるためにいろいろ社内の業務を自動化していくって言う。

【中根】
重要ですね。

【青木】
そうですね。
この開発はもう僕だけやってますね。
大変ですよ、結構今の時代のアプリ開発は、もういろんな言語できないと、開発できないんで。
結局UDトークは今、Android版もiOS版もあるのではーい、やっぱ両方とも、開発言語を覚えなきゃいけないとこですねえ。
そうで一応Windows版でもその編集用のアプリとか出してるんでそっちもやらなきゃいけないし。
且つですね僕はC++っていうのの割とスペシャリストだったんですよ。
フリーランスのときは。
今ですね、アプリ開発の分野でC++で言語を使わないんでしょうね。

【中根】
そうですね。

【青木】
なんかこないだ何かブログのアンケートでもなんか今一番仕事があるのって言うのはC++って言語はあるらしいんですけど、やっぱ過去に作ったシステムのメンテナンスだとか、基幹系のコアな部分をやったりとかって言語なんですよね。
まだまだそういうので仕事はたくさんあるちゃうんすけど、アプリでやる上には上ではほぼ使わないのです。
自分が一番得意だった言語は捨てて、そっからアプリの言語をいろいろ勉強して覚え直してって感じなんで。

【中根】
そうですね確かにiOSもAndroidとWindowsっていうと、それで最近で一つのフレームワークで全部全部やるみたいなのが結構流行ってますけどやっぱり速度とかやっぱりちょっとね、厳しいですよねえ。

【青木】
そうななんですよ、もうあれ痛い目しかあったことなくて(苦笑)。
お客さんからの仕様でくるんですよ。
それでこれで1個でやれば工数減らせるじゃないかとか。
そういやもう絶対悪いこと言わないからやめた方がいいですよっていうふうにいうんすけど、だから実際ちょっとだめな目に会ってみないと気が付かないみたいで。
絶対やっぱり一回経験していると、やっぱり各OSにネイティブで組む方が全然後々楽です。

【中根】
そうですよね、チューニングとかしようがないですもんねなんかね、ああいうのって。

【青木】
そうなんすよ。
iOSのインターフェースはやっぱiOSなんですよ。
やっぱAndroidのインターフェイスはAndroidなので、同じものを提供したってやっぱり使いにくいですよ。
それぞれにそう、だからちょっと大変だけど、ネイティブでの言語で組んだ方が多分いいものが作れるし、後々楽かなあというところでやってます。

【中根】
そうですよね。
何かアクセシビリティ的な観点から見てもネイティブのやつ使ってネイティブの標準ライブラリを使ってる方が危険なことをしなくても特に、なんていうんすかね。
誰でも比較的どんな環境でも動くものができたりするから楽だと思うんですよねえ。

【青木】
OSのバージョンアップにちゃんとついていけるのですね。
今アクセシビリティって言葉でましたけど、アクセシビリティ=体験なんですよね。
やっぱり新しいOSが出たらすぐバージョンアップしたいわけです。
ある一定の数の人たちは。
でもそれが何か使っているアプリがまだバージョンアップできてないからとか、追いついてないからっていうね。
何かその体験を止めてしまうのはすごく開発者としてはですね。
だめなんじゃないかなということです。
特にAppleなんですごい事前にOSのベータ版出して、テストもできるように準備をしてくれてるのに。
それを開発者がちゃんとそのOSリリースときにアプリのバージョンアップとかもし動かないんであれば、間に合わせれないということは、すごいユーザーに対してアクセスビリティを阻害してるなと思うので。
何より自分が一番新しいOSを使いたいんで(笑)。

【中根】
それはすごいわかりますけど(笑)。

【青木】
わかるでしょう。
やる気がみなぎるわけです。

【中根】
そうなるほど。

【青木】
そうなんすよ。

【中根】
UDトーク結構どんな場面で使われてますよって紹介記事とかも最近よく見るになってきてるんですけれども、一番わかりやすいのは例えばさっきの講演会で講演者が喋ってるのをリアルタイムで提供するみたいなんだと思うんですがなんかもっと他にも例えば複数人がいるような場面であったりとかでもという力を発揮するのかなっていう気がするんですがその辺どんな工夫とか機能とかがあるありますか?。

【青木】
これアプリ同士で簡単に通信ができる機能があるんですよ。
そのアプリの上で、QRコードを発行して、それを相手の端末で読み込む等も簡単に繋がる。

【中根】
なるほど。

【青木】
結構実は今、デバイス同士で、初対面の人がこうつないで、もしやりとりするってできないんですよね。
割と個人情報のラインとかでもID交換しないとできないし、フェイスブックなんかでも。
例えばその機能があるとそのシンポジウムとかで、字幕をスクリーンに出しますよね。
実はスクリーンに出すのってすごくアクセシビリティ悪いんですよ。
前にいかなきゃ見えないし、過ぎたものも見えないし、だから実はUDトークにおいては、スクリーンに出すのでただのパフォーマンスなんですよ。
やってる感を出すため(笑)。
大事ですよっていう。

【いずいず】
たしかにやってる感めっちゃありました!。

【青木】
アクセシビリティ取り組んでます感、めっちゃ出るでしょうね?。

【いずいず】
めっちゃ出てた!。

【青木】
実益を考えると、手元で見えた方がいいです字幕は。
しかもさかのぼってみえるし、その手元で見るための機能としてそのQRコードを発行して、各端末で読み込んで手元で見えると。
始まる前とかにそのQRコードも印刷しちゃって、事前に全員に配ったりとかしておくと、手元でも見えるし、もしかしたら遅刻してこれない人なんかでもQRコードがあるとくるまでの途中に文字放送でみれるわけですよ。
途中でトイレに行ったってトイレの中で見えるわけですよ。
これがやっぱりいわゆる本当の意味での字幕のアクセシビリティなのかなと思って、もちろん手元で文字の大きさも変えられるし。
UDトークは翻訳機能もあるんでもとで自分の見たい言語に設定してみることもできるわけです。
やっぱりその文字情報のリアルタイムキャプションというのは結局はオンデマンド型で、自分の見たい情報の形にしてみるっていうのが本当に多分提供する形としてはいいんですよ。
だからある程度パフォーマンスの時期が終わったら正直スクリーンとか僕なくてもいいと思ってるんですよ。
今はちょっとまだねやっぱり福祉の観点で言うとそういうのがあるんだよっていうふうなパフォーマンスとかPRが必要なのでわりと出すようにって感じてるんですけども。

【いずいず】
やってることが追えるっていうのがすごくて、その前に神戸の「アクセシビリティの祭典」のときに気づいたのが他の人たちも言ったんですけど、ちょっとメモを取っている間に話が流れて「聞き逃した!」って時とかに、UDトークで目の前でスマホで追えるんで、この話だったかとかっていう感じで。
聞き逃しところが遡れるっていうのがすごい便利だったんですよねえ。

【青木】
そうそう、いいこと言いますね!。
それって今のいわゆる仕事やってる人、若い人って言い方でもないんですけど、いわゆる講演とかスピーチとセミナーとかに参加するスタイルが変わってきてるんですよね。
いわゆる一昔前だと、話しはしっかり聞くものだったんですよ。
講演者の顔を見てしっかり話を聞くもの。
だから、よそ見をしてると聞いてないっていうふうな判断になるわけです。
でも最近だと、皆話を聞きながら、そういえばツイッターとかでリアルタイム中継したりだとか、そういうことを自分のパソコンにカタカタメモったりとかするじゃないですか。
実は何で聞くっていう行為だけ時間軸に制限があるのかなっていうふうな感じなんですよね。
そうすると結局最終的にはその講演とかに参加して内容が理解できれば良いはずなので、喋ってる音声情報だけ、強制的に時間軸で進んでくっていうのを、今の参加スタイルに合わない。
そうか発信をしてる間ってのは逆に聞くのは止めてしまって、また講演に戻ったときには、こういうリアルタイムブログで遡って何話したっけなあというふうに追ってすぐ追いつけるわけです。

【中根】
そうそうですね。
さっきの前方のスクリーンにリアルタイムのキャプションを出すっていうだけだとせっかく文字化しているのにその文字化していることのメリットを完全に殺していることになってしまうので。
やっぱりそれもったいないっていいなと思う反面、確かにそのパフォーマンスというかPRみたいなことってすごく重要で、こういうものを必要としてる人がいるんだっていうことをわからせるっていう意味ではやっぱりインパクトおっきいんですよねあれ多分スクリーンでてるねそうそうそうです。
確かにおっしゃるとおりしばらくは必要なのかもしれないけど、ゆくゆくはなくなるのかもしれないですね、ああいう前にあるスクリーンで出すっていうのは。

【青木】
逆にもうすごい派手に出すんであれば、むしろすごいインタラクティブな感じがしていいんですよ。
それこそ「アクセシビリティの祭典」だともう話者のすぐそばとか、パネリストの後ろに見えるところにボンって置いてたんでいいんですけど。
もうねえ、僕はもう本当福士の字幕って本当端っこに置いてあって。
変な話、手話通訳の人だって全然端っこに立ってるじゃないですか。
あれこそ喋る人の真横とか後とかに立ってやるのが当然だしでアクセシビリティの祭典はそれをちゃんとやっていたので、僕はすごいなと思ったわけです。
そう。
まさにアクセシビリティだなと思って。
だからいうのをやっぱりむしろやるんであればもっとエンターテイメント性とかですねインタラクティブな感じで、ああいう情報支援なんかをやっていくと。
そのためにはやっぱりスクリーンに出すっていうのをもっと工夫してですね。
ドンと大きく出すとか複数枚出してみるとか、そんな感じでやれば何かいいのかなと思いますよね。
出す意味があるかなそうですね。
そう。
全部あるのがいいですよね手元でも見れてスクリーンもあって、もちろん字幕生中継の生中継の配信もあって、そこにさらに字幕も付くみたいな感じで。

【中根】
そうなんですよ、なんかやっぱり理想的にはあらゆる手段があってその中からそれぞれが一番良いと思うものを選べるようにするのが良いんだけれどももともとはそれは無理だよねっていう話だったのが今別にやはりできるじゃんっていうレベルまで来ていると思うので。
何か方向性としてそっちをもっと提供したいですよね。

【青木】
そうそう、やっとここで僕初めに自己紹介したCode for Nerimaの話になるんですが(笑)。

【いずいず】
美しい流れだ!。

【青木】
UDトークの話で結構いろいろ言うわけですよ、こういうふうにやったらいいじゃんとか、もうこれできるからやればいいじゃんみたいな。
でもなんかそれって実際本当にできるの?みたいな話になるわけですね。
なんかもう実際にやってみようって思って、じゃあどうしようかなと思ったら、じゃあ自分で団体作って自分のちょっと思いつく限りのアクセシビリティとかインクルーシブとか、もうそういうのを盛り込んで活動してみようと。
なんかそういう活動できる母体がないかなと思っていろいろこう探した結果、なんかシビックテックって言葉があって、Code for JapanとかCode for Tokyoとか。
そういうグループがあるわけです。
ちょうどやってる内容的にもそのシビックテックってシビック+テクノロジーですけど、ITを使って地域課題を解決するみたいなことが面白いなと思って。
ちょっとCode for Nerimaって、僕練馬区の会社で練馬区に住んでるんですけどCode for Nerimaって誰がやってるのかなと思ったらやってなかったんですよ。
すぐドメインとって(笑)。

【中根】
重要、重要(笑)。

【青木】
ですよね。

【いずいず】
先に取れって(笑)。

【青木】
で、結局だから誰もいなかったので、Code for Nerimaは僕たち上げようとか思って立ち上げたんですね。
そう。
Code for Nerimaで、実際そのCode for ってその自治体のオープンデータとかそういうのもちょっと扱ったりとかするんですけども今って割とCode forの活動は、各団体多岐にわたっていて、わりと何やってもいいのでCode for Nerimaでまず活動する内容は後から決めるにしても活動方法に関しては、もうそういうアクセシビリティには徹底的にこだわって、手っ取り早いところだととりあえず全てのイベントにはリアルタイム字幕をつけようと、そうで翌日、翌々日ぐらいにもうイベントの全文記録を公開しようと思っうそう大きくその二つですねイベントの開催方法として。

【いずいず】
イベント記録はUDトークで置いてるからデータはあるから、あとはちょっと編集して載せるっていうことが可能っていうことなんですか?。

【青木】
そういうことですね。
もうUDトークの機能を使うと1回イベントをやるときに例えば誤認識の編集なんかをしていくんですけども、もう今はそれはもううちメンバー全員でやるんですよ。
もうメンバー全員に編集権限与えて喋ってるところでもう編集できる人がやってってー、みたいな感じでやるんですね。

【いずいず】
編集ってのは喋ったことが文字化されるけども、漢字変換がおかしかったりとか言葉がちょっと上手く文字変換されてないときに手動で直すっていうことを編集っていうことであってますか?。

【青木】
ありがとうございます、その通りです。
実際には音声認識ってなんかよく精度はどうなのとかって聞かれるんですけれども、正直、精度は100にはならないんです。
運用は何が正しいかっていうわからないんですよ。
例えば、言い間違えたときに、音声認識どう出すのが正しいっていうと結局答えがないんですね。
そういいましたのを間違えて字幕に出しちゃうと字幕は間違っているじゃないですか。
でも音声認識は正しいです。
そこで何かちょっと人工知能が忖度してですね、間違いを正しくしてあげると、字幕はあってるんだけど、音声認識としてはどうなのかって話もあるわけじゃない。
そうですね。
その忖度が正しいかどうかもわかんないです。
結局その音声認識の正さっていうのはあんまり議論しても仕方がないんですよね。
じゃあどうするかっていうと、音声認識の間違ったのをその場に応じて適切に直せるのって、実は人間の仕事なんです。
人間にしかできない仕事なんですよ。
だからありがたくやりましょうというふうに言ってます(笑)。
だんだんAIで失われていく人間の仕事で唯一の残っているのは音声認識の結果を直す仕事なのでありがたくやらせていただきましょう、と(笑)。

【いずいず】
AIのおかげで仕事があるわって感じですね。

【青木】
そう。
そうなんですよ、実はAIで仕事が奪われると勝手に騒いでいる人たちにいいたいのは、仕事がふえるからって言うんですね。

【いずいず】
心配するなと(笑)。

【青木】
そう心配しなくても増えるからと。
逆に人工知能のトレーニングとか、音声認識の精度を上げてくのって実は人間にしかできない仕事なので。
絶対に人間の仕事ってのは形を変えて残っていくんですよね。
そうです。
ただ今はそのシンポジウムとかで例えばUDトーク使う場合に関しては1人か2人ぐらい張り付きで、音声認識の誤認識を直していくっていうふうなスタッフを割り振っておくと正しい字幕を出していけるというふうな仕組みになっています。
もちろんその編集者は何でもいいので会場全体に公開してしまってもいいしほどのスタッフ決めてやってもいいしっていうので、Code for Nerimaの場合はもうそこにしている参加メンバー全員で編集をしていって、その都度、新しい字幕を出していくっていうふうな形でやっています。

【全員】
なるほど。

【青木】
その結果、いわゆるリアルタイム字幕が常にあるので、聴覚障害の方とかがすごい来やすいんですよね。
その後に全文記録が出るので、そこにこれない方なんかでも参加している感じになるんです。
これ翌日には全部共有できるし。
例えばイベント開いてこれない方って、予定が合わない方だけじゃないんですよね。
例えば視覚障害の方なんかで介助が必要な方とか、ガイドヘルパーがが必要な方とか、そういう方もこれないわけですよ。
雨が降るとやっぱり車いすの来づらかったりだとか、そういうことも全部含めるとこれない方への情報提供をすることってすごい参加の機会の増えるんですよ。
「うちのイベント字幕あります」とかっていうふうにすると、今まで参加することができなかった聴覚障害の方がまわりにすごいいるかもしれない。
そしたらやっぱりくるわけですよ。
よく何かそういうのを話したときにいやうちの団体はそういう人が来たいっていうふうに言われたことがないんですよねって言われるんですけどそれは当たり前でし、そういう人が来れる設備とかそういう状況がないから、そもそもこないわけです。

【中根】
そうですそうです。

【青木】
だからよくビジネスのシーンでもそういう話はするんですけどいまなんでアクセシビリティに取り組む必要が企業はあるのかとかそういう話とかで。
結局その潜在顧客とか、アクセシビリティに取り組むことによって、実はまわりにすごいそういうビジネスの対象になるだとか、市民団体だったら参加したいと思ってる人がいるってことにアクセシビリティに取り組むと気がつくわけですね。
そしたら僕なんかでも聴覚障害の方に初めて出会うまでは周りに1人もいなかったんですよ、聴覚障害の人って。
でも1人友達になってこういうのを作って世界に入ってみるともう僕の周りには山ほどいるんですよ、聴覚障害の人が。
でもその人たちは昔からいたんですよ。
自分がそういうことに気がついて、そういう取り組みをすることによって、潜在的にあった、そういういた人たちが、気が付けば自分は気がつき始めるわけですよ。
そうですね。
そうそれでビジネスやる部分にもすごい企業にとってもメリットになるし、顧客のビジネスチャンスも広がりますよね。

【中根】
そうですね、やっぱりよく聴覚障害の方が言うこととしてその「字幕あります」とか「手話あります」とかないところにどうしても行きたければ問い合わせるけれどもでもどうぞどうせだめだろうと思うから問い合わせないみたいな話はやっぱりよく聞くし。
あとそうそう僕自身も例えばこれは一般的に考えると視覚障害の人が来ると迷惑だろうなって思って勝手に忖度して問い合わせないなんていうのは平気でしょっちゅう起こることだから、そこを「あります」っていうだけでぐっとハードルが下がるんですよね。

【青木】
そうなんすよ。
もちろんその方法というのは大変だったわけですよ。
やっぱり全部人がやるわけなのでところが今テクノロジーで字幕は出るようになったわけですよ。
ある程度、これらが使わない手はないだろうと。
本当にわかりやすいんですよね、その人の作業の負担を減らすためのテクノロジーってまさにこの字幕の世界であって、とりあえず置いとけば、字幕は出るんで。
テクノロジーの使いどころってそこなんですよね。
結局やらないとゼロなんですよ。
でもテクノロジーを使って字幕を出すと。
とりあえず手を何もつけなくったって0が1になるじゃないですか。
そうそしたらそこに掛け算をしてるわけですよ。
編集する人をつけてみようだとか音声認識の単語登録をしてみようだとか、そういうふうにまずは0を1にしないと掛け算ができないわけなんですよね。
テクノロジーはやっぱり0を1にするってところができるものなので、だから今は本当に昔大変だった、もちろんまだ手話通訳に関しては手話の手話通訳がやることにはなっていますけれども、まだしばらくはやるんじゃないかなと思うんですけど、字幕に関して言うと、いわゆるこういうアプリとかでできる時代になってきたのでもう本当にいろんな団体とかがこういうのを知ってもらって、気軽に字幕をつけてもらって、そういうふうに、聴覚障害の方なんかは気軽に参加できる環境というのは作ってもらいたいですよね。

【中根】
そうですね。

【青木】
そう大変じゃないので。

【中根】
そうですね、確かにここのもう本当ここのところの音声認識の精度の上がり方とかを考えるともうそろそろ気軽にやってもいいかなって感じになってきましたね、本当にね。

【青木】
そうなんすよね、しかもスマートフォンとタブレットとかその辺が少しあればできちゃう。
みんなが機材持ち寄ってできるんですよね。
そういうのを実際にやってみよう、やってみないと説得力ないなと思ってもう本当にCode for Nerimaをやってよかったなと思うのは、やっぱりそういうふうな環境を見に来る人もふえるわけですよ。
なんかそういうアクセシビリティとかインクルーシブってもうそこら辺で言いまくってるので、うんCode for Nerimaちょっと見に来てみようというので、見に来るわけですよ。
そうすると本当に環境がインクルーシブな感じになってるわけですよ。
やっぱり懇親会なんかにもみんな来るんですよ。
聴覚障害の方も視覚障害の方も。
そうすると飲み会もすごいいろんなコミュニケーション方法を駆使して。
飲み会をインクルーシブにってのは結構重要でして。
実はUDトークを一番どこで使うために工夫してるかっていうと飲み会なんですよね。

【中根】
それ結構大変じゃないですか?!。

【青木】
大変なんすよ。
正直シンポジウムとか会議とかそういうところってもうUDトーク使ってだいぶもう解決できるんで、もういいですよ、任せておけば(笑)。
飲み会に関してだけは、やっぱり何とかこれをテクノロジーでうまくできないかなと思うんですよ。
今もまだ試行錯誤中です。
最近はガンマイク買ってみたりだとか、そう収録用の。
今は割とピンマイク用意しておいたりとかワイヤレスマイク用意しておいて、喋る人のところに持ってってですね、やってみるとか。
そんな感じのことはちょっとやってみんなで工夫しながらやってますね。

【中根】
なるほど、それはなかなかチャレンジングですけどこれはできるとかなりインパクトが大きいですねえ。

【青木】
そうですそうです。
別にコミュニケーションは別にそれだけでもなくてやっぱ手話も入ったりだとかですね、あとはやっぱり視覚障害の方がいたりとかするんで必ず喋る前には名乗って、こっちから今青木が喋りますよみたいな感じで名乗って、話しとかするんで。
なんかそういう体験、それも一個の体験だし、そういう会話のルールですよね、そういうのが必然的にCode for Nerimaに参加していると身に付いていくというか、立ち上げてそういうイベントとか懇親会を通して何か見てるとすごくなんか楽しいんですよね。

【中根】
イベントは、イベントの自体はどういう内容のものをやられてるんですか?。

【青木】
今はもう大きくですね、月1回やる定例会と、月1回やるセミナーっていうのに大きく分かれてますね。
定例会はもう毎月何かネタがあったらやるしって特にネタがないというふうにはもうメンバーの方に自己紹介プレゼンをしてもらうと。
ショートプレゼンを。
それで回して懇親会メインでやってます。
セミナーに関しては、毎月1回外部、外部内部で講師を立てて、そういう話題のトピックについて話したりとか、こないだグラフィックレコーディングについてので。
ITによらずいろいろやってみたりとか。
わりとだからITに絡むというよりは何かいわゆるメソッドの紹介ですよね。
こういうふうにやると情報共有しやすいだとかこういうのを使うとやりやすくなるんだとか。
なんか割と幅広く講師はそういうふうに起用して企画しています。

【中根】
これはもうあれです、興味を持った人だったら誰でも参加できる感じですか?。

【青木】
そうですね。
無料で参加できます。

【中根】
特に練馬に関係がない人も大丈夫ですか?。

【青木】
練馬区以外の人もいっぱいいます。
練馬が好きな人は、練馬に興味がある人はもう幾らでも来ていただければ。

【中根】
練馬に興味がある人!なるほど(笑)。

【青木】
みんな練馬自慢をするんでね(笑)。
練馬区の印象って何か半分ぐらい畑だとかですね、大根しかなとか、JRも通ってないとか。
例えばUDトークに関しては練馬区はもう練馬区全域で導入してるですよ。
なのでうちは練馬区にある企業として練馬区にもUDトークを納品してるんですよね地元企業として。
それもあってCode for Nerimaも練馬区とのコネクションがもうある状態で始まってるんですよ。
主には協働推進課って言われる。
いわゆる区民協働ですね。
そういうのをやってるところと、情報政策課とそのあたりと割とCode for Nerimaが組んで、イベントとかに対応したりとか、してますね。
練馬区はもう練馬区で契約して窓口なんかではUDトークを使って聴覚障害の方に対応したりとか海外の方が来たときなんかでもUDトーク使って翻訳で対応したりとか、そういったことをねやってる実はすごくIT進んだ自治体なんです。
畑とかだけじゃないんです!。

【いずいず】
大根だけじゃないですよと(笑)。

【青木】
大根だけじゃないです!。

【中根】
としまえんだけじゃないぞと。

【青木】
そう練馬区はすごいですよ!。

【中根】
というところで何かずっと黙ってる植木さん何か質問ありますか?。

【植木】
なんか不思議な感覚ですね。
収録に参加しているのにリスナーのように聞き入ってました。

【いずいず】
私もです。

【青木】
喋りすぎてないですか?僕(笑)。

【植木】
全然大丈夫です。
流暢なんでラジオ番組聞いてるような感覚で。
うなずきなから聞いてました(笑)。
UDトーク結構最近、僕らの周りでも知られてきていて、多分今日のこれ聞いて、例えばセミナーとか勉強会とか。
主催してる人なんかはちょっと今度使ってみようと思った人もいらっしゃると思うんですけど。
初めてUDトークを使ってリアルタイムの字幕を例えばサブスクリーンか何かに移したいと思ったときに、何を。
どんなふうに準備すればいいんでしょうか?。

【青木】
そういう人のためにですねホームページにオンラインマニュアルがすごい充実してますから(笑)。
なんか最近そういうイベントで使いたいっていうのはすごくあると、だったらもうイベントで使うためのマニュアルっていうのをもう1個作っちゃおうと思って。

【植木】
がーさすですね(笑)。

【青木】
そうですねもうここは手順通りにやればもう「アクセシビリティの祭典」と同じことができると。

【植木】
詳しくはWebでと。

【青木】
そうですね。
ホームページのトップのところにオンラインマニュアルっていうのがあって、そん中の1個に何かイベントで、イベント開催時のマニュアルっていうのを作ってあるんです。
もうそれを見ていただくと、もう本当手順通りやっていただければ。

【全員】
いたれりつくせりじゃないですかぁ。

【青木】
そうなんすよと結構やっぱ今、オンラインのマニュアルだとか、SNSなんかで使い方のシェアとかってすごい重要で結構そのオンラインマニュアルの作り方なんかもぶっちゃけ汚いんんですよ、すごい。
結構重複してるのが山ほどあって。
でも結局作るタイミングによって全部手順も違うんで。
内容が若干同じでも複数マニュアルってもあってもいいのかなぐらいの感じで作ってるんです。
だから検索したら何か同じような感じでいくつか引っかかるんですけど。
多分それで微妙に中が少し違ったりとかするんで、その人に合ったものを見ていただければいいかなみたいな。
なんか、従来みたいに行こマニュアルってすごい綺麗に製本しなきゃいけないっていうのはなんかちょっともうニーズに合わないかなと思うんだだからこれはちょっと一つ何かマニュアルのアクセシビリティみたいな感じで、とらえてはいるんですよ。
どうやったら見やすいが、どうやったら使いやすいかどうか。

【植木】
でも、イベントでUDトークを使うと思うと、お高いんでしょう?(笑)。

【青木】
なんと無料なんです。

【全員】
えー!(笑)。

【青木】
UDトーク自体はほとんど無料アプリでやってますと、一応もう本当完全無料のものだと、一応少し制限があって本連続で30分、音声認識ができます。
30分たったらアラートが出て止まるんですよね。
また押したら30分いくんですけど、これの制限は月額240円のアドオンを買えば解除できます。

【植木】
え?お幾らですって?。

【青木】
月額240円です。
例えば30分おきにボタンを押す人がいれば無料ですよ。
それは人間の人間しかできない仕事なんでありがたくやってくださいね。

【植木】
使わない理由はありません!。

【青木】
ありませんね。
ただ実はどこで僕がビジネスしてるかっていうのは、法人向けのプランなんですよね。
無料版のアプリっていうのはその喋った音声をこちらで全部いただいて蓄積して、その音声認識の精度向上に再利用してるんです。
これ勘違いされるのは、漏えいではなくて、しっかり管理をした上で個人情報を抜ききって純粋に人工知能の学習なんかに再利用をしているんです。
それはもう無料バージョンになりますので。
でもやっぱり一般企業さんとかですね。
それ自治体とか教育機関とかっていうのはプライバシー扱う情報が多かったりとか。
機密情報があったりとかするんで、やっぱその人工知能の学習なんかに再利用されてしまうとちょっとコンプライアンス的なそういうのがあるんですね。
なので学習に回さないものを提供するときには月額で月額利用料って形でビジネスとしています。
法人向けプランってのでうちのUDトークがビジネスのメインの収入源になってくるだろう。

【植木】
あと教えてください。
YouTubeとかを使っていわゆるウェビナーってやつですね。
ライブでこう配信するなんていうときに、UDトーク孝使ってリアルタイムで字幕を出したりなんてことができたりなんかしちゃったりなんかするんでしょうか?。

【青木】
えっとですねUDトーク並行して使えば字幕を届けることができると思います。
例えば今UDトークに関しては、このQRコードを発行すれば、離れた場所にも字幕を送れるんですよ。
なので、例えばYouTubeとかFacebookのストリーミング配信と並行してUDトークのQRコードも発行しておけば見る人はサブスクリーンとしてUDトークで字幕を見ながら画面でYouTubeを見るとか。

【いずいず】
パソコンでYouTube、スマホでUDトークの文字みたいな感じですね?。

【青木】
iPadだと画面分割できるんで、YouTubeとUDトークみたいな感じで。
一画面でやることも出来ますんで。

【植木】
でもウェビナーで使うとしたらやっぱりお高いんでしょう?(笑)。

【青木】
いや無料です。
基本的にそのUDトークに関しては法人に出してるプランなのものと無料のと機能差はないんです。
全く。
だから別に無料のものでも全く機能制限なくですね同じことを提供することができます。

【植木】
やでも本当に今までセミナーの情報保障っていう意味では、よくパソコン要約筆記の人をお呼びして、要約筆記の方たちのテーブルと椅子席を用意して会場でスクリーンをもう一つ用意して、結構物理的ななんだろう、負担と当然その要約筆記をお願いするに当たってのいわゆる経費コスト。
結構そういうのがネックになっていたところがあったんですけどですねこれから本当にUDトークちゃんと使いこなしていけばその辺もきちんとコストも考えずにクリアできるのかすごくすばらしいというかなんというかこれは積極的に僕自身使っていきたいなと思いました。

【中根】
そうですね、要約筆記とか手話通訳とか。
手話通訳はしばらくまたそういう感じだと思うんですけど要約筆記とか手配するときの大変さっていうのがすごい思った以上のもので、お金があり余ってる人たちは別に、常にお願いすればいいと思うんですけど、なかなかそうもいかない人たちっていうのはいて、そうすると必要だっていう参加者からの要望があったら、依頼するみたいなやり方に当然なるんですがそうすると何週間前までにはみたいな話になったりとかあとせっかく依頼したのに必要だと言った人がこっこれなくなるとかっていうことが起こったりとかっていうことも考えなきゃいけないので結構なんかねえ、大変なんですよね。
だけどそれを考えずにもう最初からUDトークでの字幕ありますって書いとくだけで済むんだったらそれはもう毎回やればいいじゃんって話になりますもんね。

【青木】
そうそういうことです。
すると予想通り、僕はちょっと要約筆記の人から嫌われて(笑)。
これ結構実は切実な問題でいわゆる福祉の制度に入ってないって話をしましたけどやっぱり要約筆記の人たちがやりたくてもUDトークなどできない。
やりたくない人もいたりとかするんですけど(苦笑)。
非常に今要約筆記のあり方っていうのに対してUDトークがすごい議論をよんでるっていうのは実際あるんですよ福祉の世界で。

【中根】
確かにそれ要約筆記でそれなりの技術能力が高い方だったらUDトークの編集とかもお手のものだろうし。
それをちゃんと要約筆記と同じなりそれに相当するような謝礼を受け取ってやれるんだったらその方が絶対、いろんな人にとっていいような気がするんですよね。

【青木】
そうなんですよ。
だからそのあたりに関しては正直面倒くさいので僕かかわるのが(笑)。
ですけれども、いろんな地域の人たちからも話は聞いたりとかして、いろいろ把握はしてるんですけども。
どっちかっていうと地方の人たちの方がUDトークに関してはすごく取り組んでいきたいというふうな気持ちも持ってます。
なぜそもそも人が少ない、支援者が少ない、要約筆記者が少ない。
だから、人が少ないから例えば要約筆記だとどうしても何人か揃っていかないといけないじゃないです。
何人か人が揃わないといけない。
揃わないケースが多く、そうですね。
今まで支援に出たくても出なくて悔しかったと思うしてるとこもあるんです、地方の方は。
実はUDトーク使うと、1人でも支援でいるわけですから。
最悪ね、設定して1人で編集してって形でも支援ができるのですごい支援のできる機会が増えたんですよね。
実はもういくつかの自治体ではもう自治体の派遣する要約筆記の人がUDトークを使えるようになってると。
実はそれで別に大本に決まっているわけではなくて、自治体ごとに決めてもいいですよ。
それでやってるところがあるんですけど、実はそれUDトーク使えるっていうふうに、使って支援ができるっていうふうになお、表に出したら、要望が増えたらしいんです。

【中根】
そうでしょうね。

【青木】
だから何かそういう例ができてくるとだんだん今要約筆記で、それこそさっき言ったその人工知能が人間の仕事を奪うのかみたいな話になってるわけですよ。
特に都市部の人が多くて。
その部分とからだんだんいわゆる軟化していって要約筆記の人たちがUDトークを使って、そういうふうに支援活動をやってくれるなるのかなってとこですよね。

【中根】
そうですね要約筆記ってだいたい2人ひと組だったりもっとちょっと規模が大きいやつだった4人組だったりとかで派遣されなきゃいけないからまずそれ大変なんですけど、あとそれを依頼する側はもう依頼するっていうのは聴覚障害がある方も自分1人のためにちょっとやってもらうのには大げさすぎるかなみたいなそういう気後れみたいなことがあるから、そこのハードル下げるのはすごい重要で、あと行政の側での福祉制度としての問題に関してはもうこれはね、こういうものがありますっていうことを紹介するだけでよくってあとはもう当事者の側から声を上げてかなきゃしょうがないと思うんですけど聴覚障害者本人からね。
だから聴覚障害がある当事者にもっと知ってもらってもっと使ってもらって良さをわかってもらってみたいなことをしていけばその結果としてもう制度の方も変わらざるをえなくなるっていうふうな方向をそういうふうな持って行き方をするのが多分一番いいんだろうなと思いますよね。

【青木】
そうですね福祉のアプローチでももちろんありなんですけども、やっぱり僕はそのシビックテックっていうわりといい切り口を見つけて、例えば先月ぐらいに先々月かなCode for Japan Summitっていうのがあったわけです。
新潟でやったんですけども、2日間で40ぐらいのセッションがあったんですが。
もう全部のセッションにUDトークの字幕付きなんですよ。
何かこれが逆にちょっとそういう福祉よりのところだとなんか今回はこのセッションだけ、この部屋だけとか、何か部分的なところだけどシビックテックそもそもテクノロジーを細胞とがいわゆるミッションなので。
もうもうやるならもう全部つけちゃうよみたいな感じになるわけですね。
なんかよりそっちの方が福祉的には充実しているんですよね、情報保障的には。
何か福祉の切り口でUDトークを持っていくよりは、もうもシビックテックとか、そういうことを私も自分のテクノロジーの活用な方向で持ってって。
だから字幕なんかも普通に出るよねえぐらいな感じで意識付けた方が、ちょっと広がりやすいのそうですね最近思ってるんですよね。

【中根】
それ当たり前だと思った聴覚障害者以外の健聴者の人たちがそういうのを何だろう。
広めていく普及させていく、手段として福祉があるのに使えないっていうのはどういうことだ!って文句を言ってくれるぐらいの方がいいのかなっていうちょっとそうですね。

【青木】
そうそうそう。
でも文句言う価値もなければもうそれでいいわけですよ。
みんながUDトーク使ってるのであれば。
福祉の制度なんかに頼らないように、少なくとも聴覚障害に関して言えば、福祉の制度に頼らなくても自分たちだけでもうわわりと解決できる方法もあるわけですよ。
実際だからそういうのもあって、やっぱりその協会活動だとかそういう障害者活動とかっていうのは結構聴覚障害の分野だとそんなに活発ではないんです。
ここで解決できるような環境も整い始めているので、そうそれ考えると思う今のCode for Nerimaなんて別に福祉の制度を何も使っているわけでもなく、充実してるわけですね。
同じような感じでシビックテックって切り口でテクノロジーを活用していく、団体が増えていけばそれでいいのかなっていうふうには思います。
そうですね。
だからこないだの「アクセシビリティの祭典」なんかでも内容的にもすごいアクセシビリティですごく充実してたし、テクノロジーを使ってやるっていうことに関しては何も違和感なく、皆さん見てるわけですよ。
逆に皆さんすげーなみたいな感じで取り上げてくれれば多分他にも使ってみようと思う人が出てくるわけだし。
多分あの場はUDトークの字幕を何か聴覚障害者のためにあって便利だねと思った人は1人もいないと思うんですよ。

【中根】
そうですね。

【青木】
これは何か情報を補完するためのすごくいい手段でこれからはこうだよねみたいな感じで思ってくれた人の結構いたと思って。
うんそうそれでもういいかなっていうふうに思ってるなるほど。
UDトークに関してはそういえばこの間のアクセシビリティの祭典なんかでもあれ協賛で関わってるんですよね。
正直うちはビジネスとしては企業向けの月額利用料で収益得てるので、ぶっちゃけイベント単体でってビジネスじゃないんですよ。
UDトークの使用に関してはうんそうだから例えばUDトークが協賛って形で入って、例えばいわゆる情報アクセシビリティに関してのいわゆる口出しですよね。
僕が自由にしてもいい形であれば、その協力UDトークって乗っけてもらえるだけで、使用料とか、設備関係に関してはうちから提供するっていうのはできますので。
ただし編集者までお願いしますっていうふうになるとそこはもう実費になりますよね。
自分たちでやるのか、お金払って僕が他に手配するかみたいな感じになるとは思います。
ただ、設備だけいろんな機材とか持ってってた運用とか、そのセッティングとかそういうのをやるのであれば、もう本当に協賛とかパートナーって形で、イベントに関わることはしょっちゅうやってますんで。
ぜひご検討いただければ。
ネタが欲しいので(笑)。

【中根】
それは本格的に検討させていただきます。

【青木】
早めにお願いします(笑)。
そのうち自分たちで使えるような基盤ができれば勝手に使ってもらってもいいわけですし。

【いずいず】
あとこの収録とかも何か青木さん企んでらっしゃるんでしたっけ?。

【青木】
できれば何かこれ全部文字起こしして、なんかそうどっかに公開したいですよね。
せっかくなんでUDトーク使って。

【植木】
でもそれはお高いんでしょ?(笑)。

【青木】
面白いから僕がやりますよ。
僕が喋ってるんだから僕がやりますよ。
けれども、実際その辺のところもそんなに苦労なくちょっとやればできますのでところもなんかお示しできればいいかなって。

【中根】
そうですね、それはちょっと知りたいところだと思いますねこういう感じで比較的なんでしょ、なんかニュース原稿を読むような奴は当然できるでしょってみんな思ってるけどこういうふうに普通に喋ってるのがどれぐらい認識されててかつ編集がどれぐらい大変なのかみたいなのって多分あんまりみんなイメージできてないと思うので、何かそういうことも含めてちょっと情報を出せると良いかもしれないですね。

【青木】
ですよね。
はいなのでちょっとそれはやりたいなと思っています。
ぜひお願いします。

【中根】
ということで大分長くなってきますけど青木さん、他に何か言い忘れたこととか宣伝したいこととかありますか?。

【青木】
そうですねえ。
Code for Nerimaに関してですけれども、ホームページとかFacebookページがあるのでもしよろしければそちらの方に「いいね」していただければと、もちろんUDトークもFacebookページがありまして、うちの会社は広報が優秀なんでね(笑)。

【いずいず】
広報、俺、広報、俺(笑)。

【青木】
そやっぱりそういう情報配信とかは、こちらは積極的にやるようにしていますどこで使われただとか、こういった形があるよとかCode for Nerimaに関してもこういう活動しているよとか、まさに練馬区とこういうふうな活動してるっていうところとかって出してあげると他の団体なんかでも自治体との関わりってこういうふうなことができるんだということも参考になると思うんですよね。
なんか本当に僕は練馬区世界一にしようと本気で思っていて、区民協働とかそういう点において、なんかいろんな人にちょっと参考にしてもらえればいいかなっていうのもありますので、ちょっとCode for Nerimaの方の情報をちょっとゲットしていただくものと、イベントも定例で開催してますのでぜひ来てくださいというところですね。

【中根】
はいということで今回はゲストにCode for Nerimaに今積極的にコミットされているという。
そしてUDトークの生みの親でずっと運用をされているという。
青木秀仁さんお迎えしてお話を伺いましたどうもありがとうございました。

【いずいず】
ということで本日のポッドキャストは以上です!。

【中根】
はいどうもありがとうございます、また次回です。

【いずいず】
まったねー!。

【植木】
お高いんでしょう?(笑)。

【全員】
無料です〜!。

10月1日発売の月刊ニューメディアに8月のカンボジア旅行の記事が掲載!

10月1日発売の月刊ニューメディアに8月のカンボジア旅行の記事が掲載されました!フルカラーで3ページ、しかもほぼトップ記事です。

そして今回月刊ニューメディア編集部様から記事のPDFデータもいただき「知ってもらうことが大事ですのでご自由にお使いください!」と太っ腹な許可もいただきました。ですのでPDFデータとJPEG画像を掲載いたします。

月刊ニューメディアは都内の書店でも購入可能ですのでぜひ実際に書店に見に行ってみてください。

今回ほんとにこのカンボジア旅行はよい記録として残すことができました。確かにヒアリングや実証実験も大事ですが、なによりも実践してみることです。その結果出てきた課題は次に活かせばいいのです。ほんといま振り返ってもすばらしいメンバーでツアーができたと思います。

ぜひみなさん、記事を読んでください。そしてこういうツアーが実際に行われたことをどんどんシェアしてください!

PDFはこちら
https://udtalk.jp/wp-content/uploads/2018/09/udtalk_cambodia20180818.pdf

月刊ニューメディア
http://www.newww-media.co.jp

Code for Japan Summit 2018 in 新潟でUDトーク!

Code for Japan Summit 2018 in 新潟のセッション一覧がアップされました!
https://summit2018.code4japan.org

こちらのイベントはUDトークがパートナーとして協賛しておりまして、すべてのセッションでリアルタイム字幕が提供されます。また全文記録作成のツールとして活用されます。
UDトークの提供ですが、

・全会場のリアルタイムログがいつでも見れるようにQRコードが印刷されたチラシが配布されます。
・メイン会場はスクリーンにて日英の字幕表示、他のセッション会場はスマホやタブレットへの配信となります。
・一部のプライベートなセッションは会場でQRコードを配布いたしますのでスタッフにお声がけください。

アプリをインストールすれば誰でも手元でリアルタイム字幕を見ることができますので、ぜひご利用ください!

セッション一覧
https://summit2018.code4japan.org/session/


Code for Japan Summit 2018 provides real-time caption by UDTalk. UDTalk has partnership with this event.

– You can get flyer which is written QR codes in order to use UDTalk.
– At main stage, real-time caption is always displayed on front screen.
– At other session rooms, real-time caption is provided on your smartphone and tablet. (you must install UDTalk.)
– In case of private session, you can get QR code from staff.

Install UDTalk for seeing the real-time caption!

【シェア希望】「耳友新聞」2018年度版

全国、いや全世界の「耳友新聞」ファンのみなさま、おまたせいたしました(笑)
今年もお届けする「耳友新聞」。UDトークの講習会に参加してくれた聾学校小学部6年生の女の子の夏休みの自由研究です。僕も改めてインタビューを受けたりとか、写真素材の提供なんかもさせてもらいました。

また岐阜聖徳学園大学や岐阜音声認識研究会へのインタビューなど盛りだくさんな内容となっております。
こちらどんどんシェアしてください!ほんと子どもたちのいろんな願いをかなえるために大人がもっと頑張らなきゃなと思います。

聾学校小学部6年生の女の子ちゃん、ありがとうございます!
こちら、昨年の耳友新聞です。ぜひ振り返りに御覧ください。

【2017.10.24追記】「耳友新聞」が県の社会科課題追究学習作品展で優秀賞を獲得されたそうです!おめでとうございます。ーーー夏休みの自由研究ってありましたよね。6月の岐阜の講習会に参加した聾学校小学部5年生の女の子が今年の夏休みの…

UDトークさんの投稿 2017年8月29日火曜日

Japanese deaf girl created newspaper!


【お知らせ】無料版のアプリを一部業務でもお使いいただけます

無料版のアプリをご利用の皆様。UDトーク無料版の利用規約を改定しました。変更点は附則に記述してありますが、今回大きな点は「一般の法人などの業務で使用するのを規約上は禁止としない」ようにしたことです。
第5条(禁止事項)の④を

ーーー
④ 法人格を有する事業者がその業務のために本アプリを利用すること(ただし、事業内容・規模・形態、従業員数等から、当社が利用を認める場合を除く)
ーーー

これから

ーーー
④ 官公庁、地方自治体及び教育機関(幼稚園、小学校、中学校、高等学校、中等教育学校、特別支援学校、大学及び高等専門学校)がその業務のために本アプリを利用すること
ーーー

にしました。官公庁、地方自治体及び教育機関は規約上は法人向けプランを必須としますが、それ以外は規約では禁止をしません(そのかわりサポートはないのでお問い合わせされてもお答えすることはできません)。

無料版のアプリは音声データを収集しております。

【ヒント】喋った音声はどうなるの?

ですので、業務でお使いいただく際はコンプライアンスやプライバシーの基準をご確認ください。これは使用を推奨するものではなくおまかせをすると言ったものです。
現在UDトークは25万ダウンロードがあり、だいぶ公共性を帯びてきたアプリとなりました。規約上で一部の業務での利用を開放することでもっと広がりを見せることを期待しております。そしてデータ収集のポリシーも含めいまいろいろ出てきている実証実験をしているような音声認識アプリを使うことへの「理解」を深めていただければと思っております。

利用規約の内容をご確認ください。

UDトーク®利用規約(一般)

法人向けスタンダードプランの利用範囲を拡大、活用がしやすくなりました

法人向けスタンダードプランの利用範囲を拡大、活用がしやすくなりました。

法人向けプランのプラン内容を変更いたしました。

スタンダードプランは100人以上の事業所だと5部署での利用と定めておりましたが、特に行政機関でここ最近は窓口利用よりも内部の議事録作成でのニーズが高まってきました(神戸市、高松市、香川県など)。

そこでこの5部署を撤廃し、スタンダードプランでご契約の1拠点内であればご自由にお使いいただけるようにしました。

例えば「○○市役所」でご契約いただければ役所の敷地内ですべて活用いただけます。

また企業様に置いても同じ敷地内であれば従業員やデバイスの数によらずご利用いただけます。スタンダードプランは月額24,000円。毎日使えば一日1,000円くらいの計算です(しかも端末台数の制限なし!)。

おかげさまで現在400契約を超えるご利用団体がいらっしゃいます。現在お使いのところも5部署制限ととっぱらい更に拡張していただければよいのと、これからご利用検討されるところも更に活用のシーンを広げていただけると思います。

詳しくはホームページからお申し込み時にご確認ください。

Code for Japan Summit 2018、リアルタイム字幕付き!

9月に新潟で開催されるCode for Japan Summit 2018、こちらのすべての会場でUDトークによるリアルタイム字幕配信を行います。

https://summit2018.code4japan.org

UDトークはこのイベントにシルバーパートナーとして協賛しており、機材提供も行います。

シビックテック(Civic+Technology)という言葉がだんだん周知されてきたんでしょうか、このイベントは全国のシビックテック団体、ITで地域課題の解決に取り組んでいる団体が参加し、活動内容を報告や課題についてのディスカッションを行います。

こうした市民参加のイベントが障害者や外国人に対してユニバーサルであることはとても重要だと思います。今回、全面的にUDトークで行くと決めていいただいたCode for Japanの皆様、ありがとうございます。

また、UDトークを使用することでこのサミットのセッションの全文ログを残すことができます。それは膨大な量ですが、それを分析することで見えてくるものもありますし、オープンデータとして公開することで参加できなかった方も共有できると言うメリットもあります。
9月の連休、もしよろしければ新潟でシビックテックについて一緒に考えてみませんか?ご参加、お待ちしております。

【トピック】UDトークで動画の書き起こしをして字幕をつけてみましょう

収録済みで音声がクリアに収録されている動画であればUDトークのプレゼンテーションモードを活用して字幕データを作成することができます。

元ネタはこちら、ヒルズブレックファーストでの登壇動画です。

音声は非常によく録れています。
今回は一から音声認識させて文字起こししてみました。編集しているところも収録しました。

音声認識が完了したら内容をメールで書き出します。CSVファイルを更にチェックして完成させます。
CSV Converterを使って.sbvファイルを作成します。今回のデータは最初の字幕が動画の開始7.5秒後からだったので7500と入力して読み込ませます。

コピペして.sbvファイルを作成したらあとはYouTubeに追加です。

作成中の収録動画に今回作成した字幕を設定してありますので、御覧ください。
うまくやれば爆速でフル字幕つけれますので、ぜひ皆さんもお試しください。

そして字幕ができるってことは全文書き起こしも楽勝ってことですね!

ーーー
司会/Shamrock Records株式会社の青木秀仁さん、よろしくお願いします。ご登壇ください。

青木/皆さんおはようございます。
いつも見に来ているこのHIllsBreakfastのこの舞台に登壇するのでいささか緊張はしておりますが、短い時間ですが、よろしくお願いします。自社製品の紹介をさせてもらおうかなと思いますのでよろしくお願いします。
ただいまご紹介に上がりましたが、青木秀仁と申します。Shamrock Recordsというね。一見何やってるか分からない会社名なんですけども、アプリ開発をやってる会社です。
もともとミュージシャンでCD出したレーベルの名前をする会社名にしたのでこんな名前になっておりますが、開発者としてはですね、音声認識技術を使って、長年、開発をしておりました。声シャッターでアプリが去年ぐらいにヒットしてですね、もしこの中で知ってる方がいらっしゃったら光栄です。
と言うわけでUDトークというアプリですが、今こっちで出てる字幕。これUDトークというアプリの機能の一部で音声認識を使ってリアルタイムに声を文字化しています。それで後の方で間違ったのを編集するという形で正しい字幕を出していくというシステムになります。
UDトーク一言で言うとですね、対面でコミュニケーションするアプリです。これって一体どういうときに使うのかって、何か皆さん想像できますか?
結構これ言うと本当どう言う時に使うのというふうな疑問をもらうんですけども。
耳が不自由な方とのコミュニケーションですね。対面で音声認識とかキーボードとか筆談とかそういうものを使ってやりとりするのUDトークでできますよということです。
うん。皆さんの周りにいらっしゃったら、どういったコミュニケーションとってるのかちょっと後でお聞きしたいなと思うんですけども、実際僕もですね耳が不自由な友達ができて初めてこういうことに気がつきました。
開発のきっかけはですね、その友人に所属している市民団体で講演をしてほしいとやっぱ音声認識って耳が不自由な方とか結構注目してますので。
そこで講演をしたんですが、やっぱりなかなか通じないですね。うん。あれとかこれとか言ってもなかなか難しいし。なので、自分が話したいことを何か伝えるために作らなきゃいけないなと思いました。
何か使命感というよりはですね何か開発者の興味というか、どこまでできるんだろうというので、このUDトークというアプリを
開発に開発することになりました。
ちょっと聴覚障害についてお話をしたいなと思います。なかなか理解されにくい障害なんじゃないかなと個人的には思います。やっぱり見た目でわからないというのが大きいですね。それとあと、聞こえないという体験がなかなかしづらい。
自分の声も聞こえないわけなので、そういった中で、なかなか理解されにくいんですが、これから高齢化社会、誰もが耳が遠くなります。ここにいる方も全員例外なく目が遠くなって、自覚のない障害者になっていきます。そうなったときにですね、コミュニケーションの問題というのは必ず出てきます。
そうなったときにですね、よく障害者の人が困ってる困ってるっていうんですけども、一対一になったときって、こっちも困るんですね。話したいことが伝わらないという。
なのでコミュニケーションの問題というのは、双方向なんじゃないかと僕は考えています。
なので、UDトークというアプリはですね、聞こえる側の人をサポートするアプリ。
いわゆる障害者の周りの人をサポートするアプリという位置付けで、これを開発しております。
いい感じてますねよかったこれがだいたい出るかどうかで僕の仕事は終わるので(笑)。
UDトークですが、そう。やっぱり始めにどういうコミュニケーションをとっていいかということを話し合う前のステップ、そこのハードルをこれを使うと一気に下げることができると思います筆談がいいのか手話がいいのか、それとも講話がいいのか、それをまず話すためのステップとしてUDトークを使うといいかなと思います。
UDトークですが、各ストアから、ダウンロードができます。もう2年ぐらい前になりますね最初のリリースしたのは、そんな試行錯誤を繰り返して今のものになっております。
これ全部無料でダウンロードできますので、今スマートフォンとかお持ちの方すぐ使うことができます。じゃあ一体どこでビジネスするのかというと法人向けプランというのを用意して一般企業の会議の導入とか、教育機関への難聴学生のサポートなんかでお使いいただいてます。
何社か契約も取れてますので、これからどんどん広がっていけばいいかなと。
実は営業なんですけども、Shamrock Recordsは私1人だけなので、開発部しかない感じです。なのでこちらからちょっと営業している余裕がないので、口コミとか問い合わせベースで全て対応しております。
やっぱり先方さんに意識がないとなかなかこういうので導入しても使えないかなと。
ただそれだけではなくてですね、展示会で紹介したりとか、あとは各地で講演会とか説明会を開いて、当事者と支援者の方に対してこういうのがあるという紹介をさせてもらってます。
一般企業さんに行ったときにですね、いろいろ説明をするんですが、なかなか聴覚障害者のためにって言ってもピンとこない方も、残念ながらいらっしゃいますのでUDトークを使うことで生まれる新たな価値というのをですね、こちらから提案させてもらってます。
例えば議事録取れますよね。会議の。後から修正もしているので正しいものができますと、あとは会議の見える化に繋がって効率アップでもっと言うと、これからの会議のスタイルはこうだみたいなちょっとおしゃれな感じを出してあげれば、こういうの普及に繋がるんじゃないかなと思ってます。
なので、こういうのが普及してくると、結果的に聴覚障害持った方が社会参加しやすくなるのかなと思います。やってることが正しいのは当たり前なので、それを押し付けてもやっぱりなかなか人というのはおれないと。
結果的に参加しやすくなれば僕はいいんじゃないかなと思ってきます。と言うわけで、駆け足でしたが、紹介をさせていただきました。ホームページとかFacebookページで結構活動内容を随時報告してますので、興味のある方は見ていただけると。
また何かこの話を聞いてそういうこともあるんだなってことにちょっと気が気づきが得られた方はですね、後でお話をさせていただきたいと思います。どうもありがとうございます。

司会/ありがとうございます。
ちょっと皆さんを代表してご質問させていただきたいと思うんですけども。すごいですよね。みんなすごーいって言ってぼーっと見てたんですけど(笑)。
素晴らしい理念とサービスだと思いました。で、せっかくなのでいろんなたくさんの方が来てましたけどなんかこういうとこでもしいろんなサポートとか、力をかりたりだとか
あったりしますか?。

青木/えとですね、実はこのHIllsBreakfastでもう1年近くになるんですけども、裏で僕ずっと音声認識のこれを動かして試験運用したんですね。はい。
やっぱり音声認識のこういう精度を上げていくには実際に喋った音声が必要なので本当実験の場ということで提供させていただいてるのは本当にありがたいことです。この後はもしできたら実用フェーズみたいな感じで。
やっぱこういうトークイベントを字幕にできるといいかなと思うんですね。それがそういう人たちが来るからではなくて、表現する人がこういうのを使って知ってもらいたいっていうふうな動機でなんかこういうのを使っていくような文化が出来上がるといいかなと思ってます。

司会/ありがとうございました。

iOS版 ver.78 プレゼンテーションモードを追加

【追記】不具合修正版はすでにver.79としてリリースされております!

ーーー
iOS版 ver.78をリリースしました。iPadのみの機能となりますがプレゼンテーションモードを追加しました。

プレゼンテーションモードボタンをタップすると左側に各種ファイルを表示することができます。ウェブページやフォトライブラリから写真や動画も表示できます。
使い方としては、プロジェクタが1台しかないときに字幕と資料を一緒に出しながら発表をしたりとか、手元のiPadに会議の資料や教科書を表示しながら進めていくとか、使い方の可能性はかなり広がります。

それで、すみません、ver.78ですがプレゼンテーションモードで少しバグがあります。

・プレゼンテーションモードのままQRコードを表示すると画面のレイアウトがおかしくなる。
→画面を回転させれば復帰します。
・動画や音声を再生してたとき、止めないでトークを終了すると再生し続ける。
→止めてからトークを終了するか、アプリを終了させてください。
・iCloud Driveからファイルが読めないケースがあります。
→次バージョンで対応します。

現在すでにver.79を申請済みなので1〜2日でお届けできます。
それまでお待ちいただくか、とりあえずちょっと動作がおかしくても(実用にはほぼ影響はないです)先に使ってみたいかたはアップデートお願いします。

【トピック】UDトークは誰が話したか判別できますか?

UDトークの議事録での活用で一番多い質問が「誰が話したか判別できますか?」です。答えは「その機能はありません」です。「できません」ではないのです。すでに声紋認証などの技術で「事前登録をしておけば」誰が喋ったかは分かったり、一定時間音声が溜まると「Aさん(仮定)である」などの推測をすることができます。でもそれはUDトークには採用をしていません。いろいろな理由があります。例えばスマートフォン1つをみんなで回しながら使ったり、多くの割合で初めてしかも一瞬使うケースが多いことから事前登録は難しい。推測もある程度蓄積されるまでは不確かなケースが多いなどもありますが、そもそもUDトークの目的からすると「その機能いらない」という判断をしています。

簡単なことです、名前を登録しておいて話す前に「名乗ればいい」これだけのことです。さらに基本的な使い方「話に割り込まない、遮らない」を守れば誰が喋ったかは明確に記録できます。

多くのこの質問をされる方は使用目的を間違っています。「自由勝手に適当に喋っているものを文字化」するのがUDトークではありません。仮にできたとしてもその記録はあまり価値がないでしょう。会議自体やらないほうがいいくらい生産性は低いのです。
目的は「記録を作成する」ことであり「情報共有の補助」になります。そもそもUDトークを使わなくてもちゃんと共有ができて記録が作成しやすい会議をちゃんとしたルールで開くことが大事です。そのうえでUDトークを使えば終わった瞬間にほぼほぼの議事録が出来上がっています。

実はこれが障害者の方が会議に参加することで必然的に採用されることになります。視覚障害者の方が参加される会議では名乗ることは必須です。じゃないとびっくりしてしまいます。聴覚障害者の方が参加される場合は音声言語特有の言いっ放しでは通用しません。ちゃんと理論立てて話す必要があります。

そのうち周りの人が気がつくわけです。「なぜか障害者の方が参加している会議は毎回きれいな議事録が残っている」と。実はUDトークはそこから周りの健常者の方たちが「こう使えば議事録が取れる」と言うヒントを得て使い始めております。

・名乗ってから話す
・話し終わったら「以上です」など
・話に割り込まない

これで会議を進めればUDトークできれいに議事録が取れます。誰が喋ったかなんてことは音声から読み取る必要もないのです。
ちなみにそれぞれがスマホを持って話した場合はちゃんとそのUDトークに設定した「名前」で話者名が振られます。UDトークのトップ画面から設定へ行くと名前が設定できますのでぜひご自身のお名前を設定してみてください。

ですが、ちゃんと仕様的に良さそうなものを思いついたら話者の推定機能は実装すると思いますので。