shamrock1976 のすべての投稿

【運用レポート】こんなところにUDトークが!

こんなところにUDトーク!シリーズ(笑)。

ユーザーさんから「UDトークが使われている」と言う情報をいただきました(ほんとよく見つけていただきました、さすがです!)。

動画の18〜30秒くらいで記者さんがICレコーダーとUDトークを片手で2つ持ちしてインタビューの内容を録っています。囲み取材などではわりと定番スタイルでもある、と。新聞社やテレビの報道局で活用されていることは把握していたのですが、こうしてニュースに写り込こむケースはとてもめずらしいし、面白い感じがします(笑)。

聴覚障害者とのコミュニケーションアプリで始まったUDトークですが、現在はこうした文字起こしの業務や議事録での活用が急速に増えてきています。
現在のUDトークには録音機能があるので、この2台持ちスタイルはもしかしたら昔から使われてる方なのかなーと思ったり。教えてあげたいです!

https://teachme.jp/27228/manuals/3394196/

また国会の内容などの文字起こしも記者さんたちの中ではUDトークで行っていると聞いたこともあります。テレビの前においておけばほぼほぼ文字になる、と(笑)。
音声と文字に関わる部分の仕事は音声認識技術によって大きく変わってきていますね。

ニュース元はこちら。キャプチャ画像はウェブサイトの動画から取りました(ソースから問題が指摘されたら削除するかもしれませんのでご了承ください)。

https://news.tv-asahi.co.jp/news_politics/articles/000142961.html

【シェア】東京都練馬区の「第2次みどりの風吹くまちビジョン」、アクションプランにUDトークの活用案が組み込まれました!

東京都練馬区の「第2次みどりの風吹くまちビジョン」、アクションプランにUDトークの活用案が組み込まれました!

みなさんご存知のとおりUDトークは東京都練馬区で開発されております(笑)。もちろん東京都練馬区でもUDトークは正式に導入され、Code for Nerimaと言う区民団体により区民協働のツールとしてもイベントで活用されております。

この度「第2次みどりの風吹くまちビジョン」のアクションプラン(戦略計画)の一部にUDトークの活用が組み込まれました。

戦略計画 21 窓口から区役所を変えるの「3 案内が正確・迅速に行われます」の一部からの引用です。

ーーー
高齢者、障害者、外国人の皆さんなどへの案内に、音声文字表示・翻訳の機能をもつ音声認識アプリ(UDトーク)の活用を進めます。
ーーー

「高齢者、障害者、外国人」と明記し、UDトークと言う名称がアクションプランに記載されることは練馬区の事業者としてこれほど嬉しいことはありません。これからも練馬区に貢献していきたいと思います。

ぜひ他自治体の方も参考になさってください。この件についてのお問い合わせは練馬区まで!

■戦略計画 21 窓口から区役所を変える
https://www.city.nerima.tokyo.jp/kusei/keikaku/vision2/visonap20181210.files/v2ap-s21.pdf

■練馬区報
https://www.city.nerima.tokyo.jp/kusei/koho/kuho/201812/20181206165152711.files/1211_all_sp_1-4.pdf

■第2次みどりの風吹くまちビジョン アクションプラン[戦略計画](素案)
https://www.city.nerima.tokyo.jp/kusei/keikaku/vision2/visonap20181210.html

【運用レポート】山形県立山形聾学校(宇治川雄大先生)

教育機関向けプランをご利用いただいている山形県立山形聾学校の宇治川先生からちょっと画期的なアプローチのUDトークの使い方をいただきました。

「指導者の授業改善の視点」とありますが、これは別にろう学校に限らず学校一般や塾や企業の研修などにでも適応できると思います。教員や講師が「振り返り」をすることで質のレベルアップが見込めます。

この件でお問い合わせがある場合は山形県立山形聾学校の宇治川までご連絡いただければご対応いただけるとのことです。
(写真が宇治川先生、優しくて熱い先生です!)

ぜひこれからもご活用ください!

ーーーー
授業改善を目的とした音声認識の活用について

山形県立山形聾学校
教諭 宇治川雄大

1.実践にあたり
本校では、平成28年度より、集団補聴システムと音声認識を活用した実践に取り組んでいます。実践の主な目的は、本校に在籍する聴覚に障がいのある幼児児童生徒が主体的にコミュニケーションを図る手段としての有効性を確かめることであり、実践を通して効果があることが分かりました。また、校外学習を中心とした教育活動での活用に加え、生徒が参加する研修会での情報保障としての活用、聴覚に障がいのある教職員に対しての情報保障としての活用、公開研究会や会議での議事録作成等の場面でも効果が実証され、現在も幅広く活用しています。

今回は、音声認識を用いた新しい実践の提案として、指導者の授業改善の視点で、音声認識を活用することを試みました。具体的には、指導者の授業での発問や指示を音声認識アプリケーションにより文字情報へ変換していきます。そして、授業後に文字情報をもとに指導者の発問や指示の内容を振り返るとともに、児童の実態に合わせた発話や指示を統一して使用していくことで、児童の学習理解を高めることに繋がるか検討しました。なお、本校では、Shamrock Records株式会社の提供する「UDトーク」を、法人向けプラン(教育機関向けプラン)の契約を結んだ上で使用しています。

2.実践の紹介
今回の実践は、小学1年生の算数科「なんじ、なんじはん」の単元で検討を行いました。以下に、実践の結果について紹介します。

単元を始めるにあたり、指導者の発言について、長針を「ながいはり」、短針を「みじかいはり」等と言い方(板書や学習プリントも含む)を統一したり、発問を「長い(短い)針はいくつですか。」「何時(何時半)ですか。」等の言いまわしで統一したりしました。しかし、実際の授業では、「(長い針は)いくつのところですか?」と計画と異なる言い方で発問してしまったため、児童が混乱し、指導者が答えを児童に伝えるような状況になりました。授業を行っている際は、指導者は児童が発問の意味を捉えられないと判断して進めましたが、データを確かめたことで、指導者が統一した発問の言いまわしと異なる言いまわしをしてしまったために、児童が発問の意味を捉えきれず答えられない状況が生じたことが明らかになりました。

そこで、次時からは、特に発問においては、統一した言いまわしを徹底することを意識したことで、児童は発問の言いまわしに慣れることができました。その結果、単元の後半になると、児童は長針や短針の位置についての発問に対して数字を答えることができるようになり、授業の中心課題に時間を十分にかけて学習し、目標の達成に繋げることができました。

このように、ビデオカメラ等の機材を準備して記録したり、複数の教員で発言や指示の内容を記録したりすることなく、指導者が容易に自らの授業の振り返りが可能であることが、今回の実践から示唆されました。

【運用レポート】g0v Hackathon at Taiwan

10月にUDトークをサミットで採用していただいた台湾のシビックテックグループ「g0v(ガブゼロ)」主催のハッカソンでUDトークが活用されました。中国語と英語のスピーカーがそれぞれ発表をしていくなかで、双方向に翻訳をしていきスクリーンで2言語、手元のアプリで多言語への翻訳をして皆さん参加されたそうです。中には聴覚障害者のグループも参加していてUDトークに驚いたとの報告もありました。

音響設備との接続や話者がマイクを持って話すなどいろいろ課題はあったようですが、日本での使いこなしのノウハウをぜひg0vに伝えていきたいと思っています。

また実は台湾のあるコワーキングスペースで正式にUDトークを導入するという話もいま進めていますのでまた追ってご報告いたします。日本初の翻訳アプリ、世界にはばたけUDトーク!(笑)

SEMICON Japanセミナーステージ(TechSTAGE)のすべてのセッションでリアルタイム字幕を提供します!

セミナーステージ(TechSTAGE)のすべてのセッションでリアルタイム字幕を提供します!
SEMICON Japan、日本最大級のエレクトロニクス製造サプライチェーンの国際展示会です。こちらの3つのステージでUDトークによるリアルタイム字幕をアクセシビリティサービスとして提供いたします。

お手元のスマホやタブレットへ配信します。誤認識の編集は今回行いませんが、単語登録を事前にきちんと行っているので内容は把握しやすくなっていると思います。これについては各ご意見あると思いますのでぜひ参加してどうだったかをシェアしていただけるとありがたいです。

こういう「すべてのセッションに自動字幕」というのが展示会では増えてきました。そしてもう来年にはあたりまえになっていく手応えは感じています。

ちなみに今回UDトークは協賛という形で関わっております。こうしてウェブページにロゴなど配置していただけるだけでOKですので、ぜひお問い合わせください2〜3ヶ月前からご提案いただけると良いかと思います。

■SEMICO Japan
http://www.semiconjapan.org/jp/

■TechSTAGE
http://www.semiconjapan.org/jp/programs/techstage

■UDトークについて
http://www.semiconjapan.org/jp/UDTalk

【運用レポート】神戸市(プレミアムプラン&講習会)

先日「神戸市」でUDトークの講習会を担当させていただきました。6月からスタンダードプランでご利用を頂いていたのですが、12月からプレミアムプランにアップグレード、神戸市内全域でUDトークが活用できるようになりました。

講習会は午前と午後2回に分けて行われ、述べ40人くらいの方がご参加されました。参加された方は神戸市役所の様々なセクションの方々です。

外国人対応と議事録作成で多くの質問がありました。UDトークもそのあたりを中心に機能を紹介させていただきました。

また運用事例では開発者の青木自身が東京都練馬で行っている「Code for Nerima」の活動を例に、UDトークでリアルタイム字幕の対応を市民団体と一緒に「協働」で行っていくこともできることを紹介しました。市民の方たちと一緒にアクセシビリティに取り組むことはいま大事な課題としていろんな自治体が取り組んでいる「市民協働」なのです。

神戸市くらいの大きな自治体で全域で導入していただけることはとても良い事例となります。これからも定期的に講習会をひらいたり事例の吸い上げなど行っていきたいと思います。

ぜひご活用ください!

AccSellポッドキャスト第151回に出演しました(全文ログ公開)

AccSellポッドキャスト

第151回: 「なんで聴くっていう行為だけ時間軸に制限があるのかなって風な感じなんですよね」
https://accsell.net/podcast/0151.html

【中根】
こんにちは、アクセシビリティの情報サイト「アクセル」がお送りするポッドキャスト第151回、2018年11月21日頃配信予定号です。
中根です。

【植木】
151度目ましてインフォアクシア植木です。

【いずいず】
いずいず、今、大阪に住んでんのと言われますが、ずっと東京に住んでます。
山本泉です。
よろしくお願いしますよろしくお願いします。
なんかFacebookとかで、たまに大阪で登壇してるとか大阪にいるっていう、2ヶ月に一辺ぐらいの投稿なんですけど、確か2ヶ月に一辺とか1ヶ月半に一辺ぐらいは大阪には帰ってるんで。
大阪にいる投稿していますが、それよりも全然的に東京での投稿の方が多いにも関わらず、大阪投稿が目立つらしいんですよね。
うーん謎い。
という感じです。

【中根】
そうですかめっちゃ東京弁って言いながらず、このポッドキャストずっとやってる人なので何かちょっとその辺も。

【いずいず】
かなり東京ナイズされてますですか。

【中根】
失礼しました。

【いずいず】
どういたしましてを気になさらず。

【中根】
あまり気にしてませなかった。

【いずいず】
じゃあことで11月21日と言いますとですねいろんな記念日がありますが、いくつかあります。
早慶戦の日、インターネット記念日。
カキフライの日、任天堂の人かあるんですが。
もう一つ、11月21日というのは、フライドチキンの日なんですって。
1970年昭和45年の11月21日に名古屋市郊外に日本ケンタッキー・フライド・チキンの第1号店がオープンしたということで11月21日がフライドチキンの日なんですって。
名古屋が一号店だった。
ね。
だから私は大阪の箕面が1号店だとばっかり思ってた。

【中根】
食べ放題があるとこだよね。

【いずいず】
あそこが1号店だとばかり思ってたので今回これを見てあそう?え!と思ったんですけど。
ここでフライドチキン、私のファーストフードめっちゃ大好きで。
この1970年前後にマクドナルドやらフライドチキンやらミスタードーナツはいろいろとファストフードがどんどん日本に入ったり1号店が開店したりというところなんですが中根さん植木さんフライドチキンが話でもいいですし好きなファストフードのお店だったりとか、思い出とかいい話とかがあったらお願いします。
中根さん。

【中根】
好きなファーストフードはモスバーガーとケンタッキーフライドチキンですかね。
ケンタッキーは実は結構国によってはケンタッキーに限らないと思うんですけど、国によって出しているメニューが違っていて。
アメリカでもあれもしかしたら州とか地域によって違うのかもしれないですけど。
アメリカの僕が行ったところだと激辛みたいなのが定番メニューであるんですよね。
激辛かオリジナルか、またはクリスピーかみたいな。
選べるみたいな。
日本は何か季節物で辛いやつが出てきたりしますけども大して辛くないっていうそういうのはあったりするんですが、何かそういうのであと東南アジアの方に行くとまた全然違うメニューがあったりするので、まずこれはマックとかもそうなんですよね多分ね。
なので、なんか実は結構海外に行ったときに、日本でよく知っているファストフードに入ってみるといろいろ違いが見えて面白いってのがありますね。

【いずいず】
なるほど、ありがとうございます。
植木さんはいかがですか?。

【植木】
♪。

【中根・いずいず】
歌わないで、これ怒られるやつかな、カット。

【植木】
ファストフードは最近はほとんど食べてないかな。
昔はバーガーキングが好きだったけどもう最近バーキンてないな。
でもね鶏からは好きだよを鳥からにビールかな。

【中根】
そりゃうまいっすね。

【いずいず】
最近お店で鳥からハイボールってお店最近増えてますね。

【中根】
たしかにね。

【いずいず】
そうなんですサントリーがやってるんですよね。
ファーストフードかどうかはよく分からないけど串カツが好きです。
紅ショウガが大好きです。

【いずいず】
美味しいね!。

【植木】
以上です。

【いずいず】
ありがとうございまする紅しょうがは大阪でも串カツの定番ですね。
先ほども私も、ケンタッキー大好きで、やっぱり突然食べたくなるファストフードの一つで、先ほどあれですよね、中根さんが国によって味が違うっていうのがあったときにちょっと思い出したのが3年前に2年前、3年前に香港に行ったときに、香港のケンタッキーにはエッグタルトが売ってるんですよ。

【中根】
そうそうそういうやつもそうそうそう。

【いずいず】
その香港のケンタッキーのエッグタルトがめちゃくちゃ美味しくて、なんか割と何回か食べたなって、わざわざ香港のケンタッキーにエッグタルトを求めていったりとかっていうのをしたなっていう思い出と。
あと植木さんのバーガーキングの話でいくと、最近私バーガーキングの率が増えていて、それはなぜかというとですね。
LINEの会員なんですよ。
私はバーガーキングの。
で、たまにクーポンでめっちゃ安くなったりするので。
それで、バーガーキングそのクーポンで食べに行くっていうことをやってます。

【中根】
なるほど。

【いずいず】
めちゃめちゃ安くなるんで多分に2〜300円ぐらい安くなってるんで。

【中根】
半額ぐらいがいいんじゃないですか。

【いずいず】
そうすごいとか、あとポテトと飲み物は実質無料みたいな感じの。
ハンバーガー代だけでっていうハンバーガー代だけであとは全部残りのセットのサイドは全部無料みたいなだったりするので、割と使ったりとかしてます。
ってことで皆さんのファストフードが大好きな話のお便りお待ちしてます。

【中根】
ます。
はいでは本題に入っていきたいと思いますけれども今回は11月第二回目の配信ということで毎月2回目の配信ではゲストの方をお迎えしてお送りしています。
ということで今回もゲストの方をお迎えしていますのでまず簡単に自己紹介をお願いします。

【青木】
青木秀仁と申します。
Code for Nerimaという団体の代表をしたりとか、あとアプリ開発したり会社をやったりとかしております。
好きなファストフードはですね、最近割とモスバーガーを食べてますね。
モスがファーストフードかどうかって議論もまたあるが確かに話は長くなると思うんですけど。
やっぱファストフードは海外とか行くと助かりますよね。
ご飯食べるときなんかにねやっぱりどこで食べても同じだし、量も値段もわかってるから安心だし。
今日はよろしくお願いいたいよろしくお願いします。

【中根】
はいということで青木さんのお名前を聞いてピンと来る方っていうのは相当何かしら詳しい方だと思うんですけれども。
そうですねいろんな活動されてると思うんですけれども、おそらく、一番メディアへの露出が多いのは、さっきほどアプリ開発などをっていうふうに、すごくフワッとおっしゃってましたけど、その中の一つであるところのUDトークなんじゃないかという気がするんですが。
はい、UDトークについてはこのポットキャストだったりとかでもちょっと何回か取り上げたことがあるんですけども。
簡単にどんなものなのかとか説明していただいていいですか。

【青木】
わかりました。
UDトーク簡単に言うとも音声認識使って声を文字化するアプリですが、スマートフォンで動いてですね、よくねラジオとかそういう音声媒体でUDトークの説明をと言われるとですね非常に見せながらやるデモなので難しいんですが、そうですねまさにこうやって今喋ってる音声をどんどんリアルタイムに文字化をしていくっていうところが基本アプリの基本の機能になります。
そうすると、例えば聴覚障害持った方へのコミュニケーションが、そのアプリを通してできるとも喋ってる声が聞こえないわけなので、声を文字化してあげると、画面に出てきて、相手に見てもらうとコミュニケーションができると言ったところのアプリです。

【中根】
こういう音声認識技術自体はもうずいぶん前からいろんな有名どころで言えばドラゴンスピーチとか、あとUDトークでも採用されていると思うんですけどAmiVoiceとか。
そのあたりが超老舗というかもうどうですかね。
90年代の後半ぐらいからドラゴンなんかあったような気がするんですけれども、最近は何かGoogleとか音声認識エンジンとかも非常に賢くなってきたりとかっていうのはちょっと最近また動きがあるかなとは思うんですが、とは言え音声認識自体は結構前からあったわけですがこのUDトークはもともとあった音声認識技術をどういうふうに活用してどういうふうに見ててどういうふうな便利機能に仕立て上げてるんでしょうか。

【青木】
今ちょっとドラゴンスピーチとかAmiVoiceで出ましたけど、僕もともとAmiVoiceで働いてたんですよ。
そのちょうど90年代後半、2000年の頭ぐらいからAmiVoiceの会社、株式会社アドバンスト・メディアですね。
そこでもずっと13〜4年働いてて、実は音声認識とスマホのアプリで言えば割と第1人者ですね。

【いずいず】
自分で言った(笑)。

【青木】
誰も言ってくれないから(笑)。
もしかしたら知ってるかもしれませんが、「音声認識メール」ってアプリがあって、何か割とポンと売れたアプリがあるんですけど、それとか本当にまだスマホアプリとかGoogleがスマホに音声認識搭載する前から半分は音声認識でメール書いてみようみたいな感じのアプリでうんすごい売れてるアプリなんすよね。
そういうのをアドバンスト・メディアで作ったりだとかですねやってました。
だから多分それぐらいのときなんて全然音声認識なんか認識しなかったんで。
闇の10年があるわけですよ、音声認識、全然認識率が上がらなくそうですねすごいね。
そうここ数年ここ二、三年ですかねやっぱ人工知能技術が音声認識に入ってきてもかかわっている僕らもちょっと気持ち悪いぐらい認識精度が上がったんで、本当に本当にこんな認識するんだみたいな感じで。
やってる本人たちが一番驚いてるっていうね。

【いずいず】
アドバンスト・メディアっていう会社では開発をされてたんですか?。

【青木】
そうですそうです議会の議事録を作るシステムを開発してて、そう。
実は今自治体の議事録ってもう10年ぐらいから音声認識でやってるんですよ。
知ってました?。

【いずいず】
知らないです〜。

【青木】
そう、知らないんですよ。
だから例えばね、割と議会の議事録の公開、早く公開するとかオープンにするんみたいな感じではわーわー言ってて、なんか早く公開できないのかみたいな感じに言っているじゃないですか。
言ってるんですよ。
そうだから音声認識使ってやってるんで実は中3日ぐらい出来上がってるんです。
議事録自体はでもそういう議会の議事録を作るのを音声認識を使ってずっとやっててそういうシステムの開発をしていてお陰様で今結構全国でも200何自治体は音声認識で、その議事録を作るシステムが入ってるのかな。
東京都議会も、それ入ってるんですが。
それを作って、スマホアプリをなんか作るって話になった時に、誰もMacユーザーがいなかったというですね。
やっぱり皆Windowsの世界なんで、僕Mac使えますよという話をしたらじゃあちょっとiOSのアプリとかやってみるって話になって、そこでiOSのアプリと音声認識っていうふうなのをやる仕事をもらって、今に至るって感じですよね。

【中根】
なるほど。

【青木】
だいぶ飛ばしました(笑)。
だから何て言うんですかね、結局コンシューマ向け、要は量販店で売ってる音声認識って正直おもちゃなんですよ。

【中根】
そうですねえ。

【青木】
それこそドラゴンスピーチとかAmiVoiceにしたってビックカメラで売ってらっしゃったんで結構おもちゃで、そうやっぱりB to Bの世界で使う音声認識ってすごい、前から精度が高かったんですよ。
上がらないにしろとチューニングしたりとかして。
ただやっぱりそのあとにね、もちろんiOSとかAndroidにも音声認識が標準で乗ってきて、GoogleなんかAPIを公開したいとかして、それこそ今あとワトソンとかそういうのも音声認識があったりとかするので。
それで一般の方が触れるようになってきて、何か音声認識便利じゃないみたいな話になってきて大分高浸透してきた感じはあります。

【中根】
UDトークが出たのが2013年ぐらいですか?。

【青木】
そうですねそれぐらいです。

【中根】
それぐらいだとまだSiriとかもまだですよねきっと。

【青木】
そうなんすよ。
ちょうどなんか出始めたなんかで出るんじゃないかみたいな感じになって、でもGoogle音声認識はもうスマホには、Androidの方にはあって、たしかあったかな。
UDトーク出した頃ももうそれだけからクラウドで音声認識するシステムを採用したんですが、やっぱりまだまだ今みたいにすごい認識するなあっていうふうな感じはなかったんですよね。
確か2014年ぐらいにAmiVoiceも、ディープラーニング、AI技術を取り入れた音声認識に切りかえていってそこでもうガンと上がったんですよね。
例えばそこでやっぱりAmiVoiceのっていうのはB2Bの世界での音声認識だったからなかなかそれがコンシューマレベルで使えるってなかったんですよね。
それがそのタイミングでちょうどUDトークが、無料アプリで世の中に出てたので。
高い精度の音声認識を一般の方が体験する機会ができたんですよ。
タイミングがちょうどよかったんですよ。
なんか広がりつつも無料のアプリであって、そこに最新の音声認識を積むことで、一般の人がいわゆる日本製の最高峰のエンジンを触れたわけですよ。
体験すると、やっぱり体験するとやっぱすごい広がりは早かったですね。

【中根】
そうでしょうね。

【青木】
なんかそれまでいろいろPRしたいとか、こういうところで使えますよっていうふうな感じで、宣伝とかしたんですけど、なかなかアプリが広がらなかったんですけど。
何か認識率は上がったら、なんかやっぱ自然と広がっていったんですよね。

【中根】
そうですね何かUDトーク自体を使ってどうこうっていう話を聞くようになったのはすごく目立つようになってきたのはここ2〜3年ぐらいかなっていう印象があってそうなんすよ。
前は登場したときは登場したっていうことでちょっと話題にはなってたんですけれども。

【青木】
そうなんですか?!。

【中根】
地道にやってらっしゃるっていうことぐらいしか知らなかったのが2015年16年あたりからなんか急にUDトークを使ってやってみたらすごかったみたいな記事だったツイートだったと思う見かけることが増えたなっていう所はありますねなんかね。

【青木】
結構地道にやってた感はあります。
こっちもでもやっぱり思ったのは認識率高いとみんな使うんだなって思いましたね。
やっぱ美味いラーメン屋には並ぶんだなっていうふうにね(笑)。
よかったったのはUDトーク自体のアプリに関しては地道に機能追加はしたんですよ。
その編集がしやすいようにするだとか、見やすいようにするだとか、結局そこの機能が音声認識率がぐんと上がったときに、すごいマッチしたんですね、全体的に。
多分それが何か認識率上がってからやってたんであればまた結構時間かかったかもしれない。
何か多分認識率は上がるなんて少しもくろみあったので、なるほど。
それでそこをめがけて、アクセシビリティだとかUIだとか、機能とかをどんどん追加してって、それで認識がガンと上がったらなんかすごいバランスが良くなったっていうふうな感じのは自分でも何か覚えてますね。

【中根】
なるほど、確かにいろんな機能がなければ、かつ、例えばその1人で喋ってる講演者の音声を認識して文字化すればいいだけっていう話だったら他の優秀な音声認識エンジンが優秀になってくれればそれでそれに負けちゃうかなっていう気はするんですけれども。
例えばGoogle Docsについて音声認識とかも結構最近すげぇなって思うことがあるんですけど。
あれを使って喋ってる人がいて、後で共同編集者が適時、直していくみたいなことをやれば結構な品質ものは出来るだろうなって気がするんですけれども多分UDトークの場合だと、もうちょっといろんな機能、編集に便利な機能だったりとか、いろんなシチュエーションに対応できるような機能があったりするのかなという気がするんですけれどもその辺の何かUDトークの特長、機能的な特徴みたいなのって。

【青木】
そうそれでやっぱりよく最近聞かれるようになったんすよ。
やっぱGoogle Docsとかでやる、これやったら出来たみたいなブログも結構あったんだとか。
Google Translatorとかマイクロソフトが出していらっしゃるかというだけが違うので正直、僕は音声認識が普及すればいいんで、そういうアプリ関係に関してはどんどん使ってもらえばいいと思うんですね。
ただUDトークにしかできないことっていうのはやっぱり長時間なんですよ。
長時間のスピーチを音声認識してリアルタイム字幕を提供していくっていうところなんすよね。
これでも世界中探してもUDトークしかないんですよ。
これができるのは、それ何でかなというふうに考えたら、いわゆるリアルタイムの字幕をがーっと出していくことが、人間の作業ではできないのって日本語なんですよ。

【中根】
そうですね。

【いずいず】
へぇ〜。

【青木】
そうだから音声認識のこういうリアルタイム字幕で使うっていうニーズってもう日本独自なのかなあというふうに思うわけですよ。
英語圏だと打てるんですよね。
例えば聴覚障害者のサポートって話で言うとまたアメリカとかすごい障害者に対するサポートっていうのはもう国でやんなきゃいけない決まってるので、それで文字を打つ人たちってのも仕事でちゃんとあったりだとか。
そう言う中で、全文に関しては英語に関してはリアルで打っていける言語であると、ただ日本語に関してはもう全文をリアルタイムに打つことってのは不可能なので、そう。
そうすると音声認識を使ってこうやって字幕を文字にリアルタイムに出していくってニーズがあると。
だから何か多分あんまりこのUDトークのニーズに関しては海外の方はピンとこないのかなっていう所はあるんですよね。

【中根】
なるほど。

【青木】
なんで人が打たないの?みたいな感じで。
実際これ僕今年WWDC行ってきて、Appleの。
Appleの人にこのアプリとか見せてこうやってやってるんだみたいな話をしたら、特にあんまりアクションなくて。
でもやっぱそうなのかなというふうにちょっと思ったところもあって。
なんか日本独自の音声認識のニーズってのが、長文長時間スピーチをリアルタイムに出していくっていうふうなことなのかなとは思いました。

【中根】
そうですねやっぱりアメリカなんか多分80年代ぐらいからだと思うんですけどそのテレビの字幕リアルタイム字幕とかって急速に増えたんですけれども、僕自身は見えないのであれですけど見れてる人に言わせると例えばNFLの実況中継とかでも2秒か3秒ぐらいのタイムラグでワーッて流れるっていうんですよね。
そうそうそう。
実際それでできるんですよ。
やっぱりタイピングが早く来ると思ってっても問題なくできると思うんですよね。
だけど、日本語はやっぱりそれは厳しいなっているの素人考えでもわかるレベルと思うので、そこのニーズはやっぱり日本語独特なのかもしれないですね。

【青木】
なので実際には聴覚障害の方へのサポートみたいなのはパソコンで打ってる人たちがいるわけですね。
ただそれもも実際には20%ぐらいと言われてます要約して打ってるんで。
それでいいかどうかっていうふうなことに関しては正直また言うともめるので言わないですけど(笑)。
福祉の分野でもめちゃうので。
ただやっぱりニーズとしてはもう最近は若い聴覚障害の方なんていうのはもうネットの文化で全文を読んでるわけですよ。
ブログとかで、それでも文字を読むことに関しては抵抗がないのでもうとにかく全文が欲しいっていうふうな要望はすごいあるんですよね。
そうでしょうね。
そう。
そこでやっぱりUDトークがいいというふうなことが要望がすごい来るようになってきてるっていうのは現状としてはあります。

【中根】
多分そこを間違いなくて、なんだろうな、手話がいいか要約筆記がいいかっていう選択肢のもう一つの選択肢として全文テキストがいいかっていうのがないのがおかしいっていう話だと思うんですよね。

【青木】
そうなんですよ。
だから現状福祉の制度で決まってるのっていうのが、今では福祉のアクセシビリティって決まってるのが手話通訳と要約筆記なんですね。
UDトークに関しては、福祉の制度でないんで採用されないんです。
そうそう、そんなそれはやっぱり変な話であって、正直、手話だって聴覚障害者の中でも分からない人だっているわけだし。
全文が欲しいという人だっているわけだし。
選択肢として用意するところでどれか1個だけ選ぶみたいなことを結構するわけですよ。

【中根】
そうなんですよね。

【青木】
そういうとこにちょっと疑問を感じ始めると結構イライラしてくるわけですよ(笑)。

【中根】
わかりますそれはそうなんですよほんとに(笑)。

【青木】
なので、もう僕自身は全然福祉の人間ではないですよねとUDトークを作ったきっかけってのも音声認識とアプリを作ってたんでなんかちょっと聴覚障害のそういう活動されてる方がちょっと興味を持ってもらって引き合わせてもらって。
実際僕がそこで初めて聴覚障害の方に出会ったわけですよ、人生で初めて聴覚障害の方に。
そこでその方は中途失聴者っていう方で途中で聴こえなくなったので喋れるんです。
喋れるので向こうの言ってることはわかるわけですよ。
ただこっちから喋ることがわからないのでなんかそん時にどうしようかなと思ったら、もちろんその時は手話なんかできるわけもないし、筆談でやってもいいし、タイピングしても僕わりと早く打てるからいいかなと思ったけどなんかもうちょっとできないかなと思って。
そしたらそれとスマホもあるし、音声認識も扱える身だからちょっとこれでアプリ作って見たらなんか自分のそういうスキル不足とかそういうのを補えるかなと思ってプロトタイプを作って、で持ってったって感じなんですよね。

【中根】
なるほど、これはプロトタイピングそういうふうに思い立って作り始めて実際にする製品というかリリースするまでどれぐらいの期間でした。

【青木】
早かったですよ、一ヶ月くらいかも。
変な話、アプリなんてリリースしてからが勝負ですから。

【中根】
それは間違いないですね。

【青木】
ぶっちゃけ出したもの勝ちなんですよ(笑)。
おかげさまでやっぱAppleは全部記録に残してくれるんでストアに。
何年何月何日に出したっていうことが残ってればそのあと後発が出てきたってうちが一番初めだよということは言えるわけなんですよ。
そうですね。
うんどうせ出してから要望くるし、あんまし自分1人のニーズなんかで作ってももちろん自分のニーズを満たすのが第一条件ですけど。
やっぱりそっからいろんな人の意見が入ってきて、それを採用したりとかして作っていくのがいいかなと思ってとりあえずもうプロトタイプのまま審査が通るぐらいの状態で出しちゃいましたね。

【中根】
もともとアドバンスト・メディアにいらっしゃったっていうお話されてましたけど、そのときもまだアドバンスト・メディアの人としてやってたんですか?。

【青木】
あとその時は僕もともとアドバンスト・メディアのフリーランスのプログラムだったんで、そのしがらみがなくですねアドバンスト・メディアの業務、契約を自分の会社にもそういう切り換えてましたね。
2011年に会社を作ってるのでそれで、そのタイミングでちょっと会社作ったからっていうので契約も切り替えて、ちょっと音声認識のアプリとかも何か作ってみたいからライセンスちょうだいって、ちゃんと買いましたよライセンス(笑)。
アドバンスト・メディアから仕事ももらいつつ、常駐で働きもしていろいろやったりとかして、それはもう自分の会社でやってましたね。

【中根】
そうなんですね。
なんか最初にUDトークの記事を見たのがいつだったかちょっと覚えてないですけど2014年とかぐらいに紹介記事みたいのを見ておもしろいことやってる人いるなと思って調べたときに、会社名、会社名を見て、音楽系かなって思ったんですよ。

【青木】
はいはいはいはい音楽系ですね(笑)。

【中根】
音楽系のところが何か趣味でやってるのかなって一瞬思ったんですけれども。
ですねその後にキャリアハックかなんかでインタビューされてる拝見して、どっちかっていうとこれが本職なんじゃん?!とすごいびっくりした記憶があるんですけど。

【青木】
そうそこの話しをね、今ね一瞬するかしないか迷ったんですけど、はい会社名がShamrock Recordsってレコード会社なんですよね。
実際リアルにレコード会社で僕もともとミュージシャン、音楽やっててCDとか出してた、だしてるんですよ。
実は僕、iTunes Music Storeの方にもあるんですよ。
結構なにげにストア全制覇してたりするんですよ(笑)。
Shamrock Recordsって屋号を作ってインディーズでCDをリリースしてて、例えばアマゾンとかにも出てたりとか、Music Storeにもでてたりとかっていうんで、もう結構そのころはいわゆる音楽活動するにしたって別に大手の事務所に入んなくてもインディーズとしてレーベル作ってCDも販売しているということが全然できた時代ですね、それでもう本当に自分でレーベル作ってやってたんですけど、ちょうどバンドが解散したんですね。
解散して次どうしようかなと思ったときに、ちょっと真面目な話しすると2011年なんすよ。
震災のちょっと前にバンドを解散して、それをいろいろ次どうしようかなと思ってるときにその震災が起こったんすよ。
うんそうでそれでなんかちょっと考えるところもあって、なんかちょっと世の中に対して社会貢献じゃないけどできることは何だろうなって考えたときに、音楽じゃねえなと思ったんですよね(苦笑)。
そうなんか自分のスキルを活かすってことちょっと考えると、何か音楽ではなくて今やってるプログラムでアプリ作って何かちょっとこう世の中が少し便利になるようなものが何か提供できないかなと思ってたらちょうどそのときに、起業するっていうふうなちょっとことをぱっと思いついて、ちょっと会社作ってみようかなと思って。
そう先輩の行政書士の人に相談したらですね何かすぐできるよと言われてなんか2週間で出来ちゃって、2週間で出来ちゃった何やるか決める前に会社を作ったっていうですね、全然僕は全然事業をやるとかで会社をやったわけじゃなくて、なんかちょっと会社作ってみたら何かできるかなみたいな感じに思ったんです。
それで会社名どうする?ってなったときにもう何でもいいやと思ってShamrock Recordsにしよう。
そう本当ねすみません適当でなんか(笑)。
でもやっぱり作ってよかったらなと思ってやっぱり起業して法人になるってなるとすごい社会的責任とかですね。
そういうのがやっぱり生まれるわけですよ。
やっぱり法人だからできることですごい増えるし、法人だから話せる相手とか行ける場所なんてものすごいふえるわけなんですね。
それでいろんなところに顔出したりだとか、いろんなところに話をしに行ったりとかっていうふうなことが出来てくると、なんかちょっとこういうこともできるなとか、やっぱ会社作ると仕事を作れるんですよね自分で。
もう何を名乗ってもいいわけじゃないですか。
何を作っても言いわけだし、何か自分で仕事を作れるのは会社だなと思って、面白いなあって。
それでいろんなアプリを出し始めてその中の1個でUDトークを作ることになってって今に至ると言うことですね。

【全員】
なるほど。

【青木】
いまから考えると、もっととまず真面目にその事業を始めるつもりで会社やってればいっぱい利用できるで助成金だとかね、あったんですよね。
なんにもそういうのが利用できないまま、事業が進んでしまって、結果的にうまくいってるから良いっちゃ良いんですけど。
だから何か今でも会社の代表として何か事業を動かしてる人みたいな感じで講演依頼が来て行くとすごいこそばゆいですよね。
そんなことを考えて始めたわけじゃないところは多少あります。
いま音楽はもう全然、一応会社の定款には、音楽事業と入れてるんですけど、もう今はもう全然作る作業とかじゃなくて、趣味で楽器の演奏するぐらいで、楽しくやってます。

【中根】
今はもうこういうアプリ開発が中心ですか?。

【青木】
そうですね。
うちも本当に、UDトーク1本だけだし、会社の僕と嫁さんしかいない2人だけの会社なんですよ。
従業員とかいないんですよね。
そうなんだか最近だとUDトークがすごい売れてくるとですね、すごい今Shamrock Recordsは大きい会社なんだなと思う人が出てきて、よくうち結構僕がFacebookとかそういう好きなんで、Facebookに投稿したりとか、いわゆるブログとかもいっぱい書いてあるんですよ。
あるとき「青木さんとこの会社の広報の人すごいな」って。
うちの会社もああいう広報の担当がほしいです、って(笑)。
ありがとうございます。
すいません中の人全部僕ですね(笑)。

【中根】
もう実質開発はお一人で、奥様もやられる、開発される方ですか?。

【青木】
うちの奥さんは経理総務ですね。

【中根】
それだけで大変ですね、ちっちゃくても大きくても。

【青木】
そうですねなので、僕の仕事は嫁さんの仕事を楽にしてあげるためにいろいろ社内の業務を自動化していくって言う。

【中根】
重要ですね。

【青木】
そうですね。
この開発はもう僕だけやってますね。
大変ですよ、結構今の時代のアプリ開発は、もういろんな言語できないと、開発できないんで。
結局UDトークは今、Android版もiOS版もあるのではーい、やっぱ両方とも、開発言語を覚えなきゃいけないとこですねえ。
そうで一応Windows版でもその編集用のアプリとか出してるんでそっちもやらなきゃいけないし。
且つですね僕はC++っていうのの割とスペシャリストだったんですよ。
フリーランスのときは。
今ですね、アプリ開発の分野でC++で言語を使わないんでしょうね。

【中根】
そうですね。

【青木】
なんかこないだ何かブログのアンケートでもなんか今一番仕事があるのって言うのはC++って言語はあるらしいんですけど、やっぱ過去に作ったシステムのメンテナンスだとか、基幹系のコアな部分をやったりとかって言語なんですよね。
まだまだそういうので仕事はたくさんあるちゃうんすけど、アプリでやる上には上ではほぼ使わないのです。
自分が一番得意だった言語は捨てて、そっからアプリの言語をいろいろ勉強して覚え直してって感じなんで。

【中根】
そうですね確かにiOSもAndroidとWindowsっていうと、それで最近で一つのフレームワークで全部全部やるみたいなのが結構流行ってますけどやっぱり速度とかやっぱりちょっとね、厳しいですよねえ。

【青木】
そうななんですよ、もうあれ痛い目しかあったことなくて(苦笑)。
お客さんからの仕様でくるんですよ。
それでこれで1個でやれば工数減らせるじゃないかとか。
そういやもう絶対悪いこと言わないからやめた方がいいですよっていうふうにいうんすけど、だから実際ちょっとだめな目に会ってみないと気が付かないみたいで。
絶対やっぱり一回経験していると、やっぱり各OSにネイティブで組む方が全然後々楽です。

【中根】
そうですよね、チューニングとかしようがないですもんねなんかね、ああいうのって。

【青木】
そうなんすよ。
iOSのインターフェースはやっぱiOSなんですよ。
やっぱAndroidのインターフェイスはAndroidなので、同じものを提供したってやっぱり使いにくいですよ。
それぞれにそう、だからちょっと大変だけど、ネイティブでの言語で組んだ方が多分いいものが作れるし、後々楽かなあというところでやってます。

【中根】
そうですよね。
何かアクセシビリティ的な観点から見てもネイティブのやつ使ってネイティブの標準ライブラリを使ってる方が危険なことをしなくても特に、なんていうんすかね。
誰でも比較的どんな環境でも動くものができたりするから楽だと思うんですよねえ。

【青木】
OSのバージョンアップにちゃんとついていけるのですね。
今アクセシビリティって言葉でましたけど、アクセシビリティ=体験なんですよね。
やっぱり新しいOSが出たらすぐバージョンアップしたいわけです。
ある一定の数の人たちは。
でもそれが何か使っているアプリがまだバージョンアップできてないからとか、追いついてないからっていうね。
何かその体験を止めてしまうのはすごく開発者としてはですね。
だめなんじゃないかなということです。
特にAppleなんですごい事前にOSのベータ版出して、テストもできるように準備をしてくれてるのに。
それを開発者がちゃんとそのOSリリースときにアプリのバージョンアップとかもし動かないんであれば、間に合わせれないということは、すごいユーザーに対してアクセスビリティを阻害してるなと思うので。
何より自分が一番新しいOSを使いたいんで(笑)。

【中根】
それはすごいわかりますけど(笑)。

【青木】
わかるでしょう。
やる気がみなぎるわけです。

【中根】
そうなるほど。

【青木】
そうなんすよ。

【中根】
UDトーク結構どんな場面で使われてますよって紹介記事とかも最近よく見るになってきてるんですけれども、一番わかりやすいのは例えばさっきの講演会で講演者が喋ってるのをリアルタイムで提供するみたいなんだと思うんですがなんかもっと他にも例えば複数人がいるような場面であったりとかでもという力を発揮するのかなっていう気がするんですがその辺どんな工夫とか機能とかがあるありますか?。

【青木】
これアプリ同士で簡単に通信ができる機能があるんですよ。
そのアプリの上で、QRコードを発行して、それを相手の端末で読み込む等も簡単に繋がる。

【中根】
なるほど。

【青木】
結構実は今、デバイス同士で、初対面の人がこうつないで、もしやりとりするってできないんですよね。
割と個人情報のラインとかでもID交換しないとできないし、フェイスブックなんかでも。
例えばその機能があるとそのシンポジウムとかで、字幕をスクリーンに出しますよね。
実はスクリーンに出すのってすごくアクセシビリティ悪いんですよ。
前にいかなきゃ見えないし、過ぎたものも見えないし、だから実はUDトークにおいては、スクリーンに出すのでただのパフォーマンスなんですよ。
やってる感を出すため(笑)。
大事ですよっていう。

【いずいず】
たしかにやってる感めっちゃありました!。

【青木】
アクセシビリティ取り組んでます感、めっちゃ出るでしょうね?。

【いずいず】
めっちゃ出てた!。

【青木】
実益を考えると、手元で見えた方がいいです字幕は。
しかもさかのぼってみえるし、その手元で見るための機能としてそのQRコードを発行して、各端末で読み込んで手元で見えると。
始まる前とかにそのQRコードも印刷しちゃって、事前に全員に配ったりとかしておくと、手元でも見えるし、もしかしたら遅刻してこれない人なんかでもQRコードがあるとくるまでの途中に文字放送でみれるわけですよ。
途中でトイレに行ったってトイレの中で見えるわけですよ。
これがやっぱりいわゆる本当の意味での字幕のアクセシビリティなのかなと思って、もちろん手元で文字の大きさも変えられるし。
UDトークは翻訳機能もあるんでもとで自分の見たい言語に設定してみることもできるわけです。
やっぱりその文字情報のリアルタイムキャプションというのは結局はオンデマンド型で、自分の見たい情報の形にしてみるっていうのが本当に多分提供する形としてはいいんですよ。
だからある程度パフォーマンスの時期が終わったら正直スクリーンとか僕なくてもいいと思ってるんですよ。
今はちょっとまだねやっぱり福祉の観点で言うとそういうのがあるんだよっていうふうなパフォーマンスとかPRが必要なのでわりと出すようにって感じてるんですけども。

【いずいず】
やってることが追えるっていうのがすごくて、その前に神戸の「アクセシビリティの祭典」のときに気づいたのが他の人たちも言ったんですけど、ちょっとメモを取っている間に話が流れて「聞き逃した!」って時とかに、UDトークで目の前でスマホで追えるんで、この話だったかとかっていう感じで。
聞き逃しところが遡れるっていうのがすごい便利だったんですよねえ。

【青木】
そうそう、いいこと言いますね!。
それって今のいわゆる仕事やってる人、若い人って言い方でもないんですけど、いわゆる講演とかスピーチとセミナーとかに参加するスタイルが変わってきてるんですよね。
いわゆる一昔前だと、話しはしっかり聞くものだったんですよ。
講演者の顔を見てしっかり話を聞くもの。
だから、よそ見をしてると聞いてないっていうふうな判断になるわけです。
でも最近だと、皆話を聞きながら、そういえばツイッターとかでリアルタイム中継したりだとか、そういうことを自分のパソコンにカタカタメモったりとかするじゃないですか。
実は何で聞くっていう行為だけ時間軸に制限があるのかなっていうふうな感じなんですよね。
そうすると結局最終的にはその講演とかに参加して内容が理解できれば良いはずなので、喋ってる音声情報だけ、強制的に時間軸で進んでくっていうのを、今の参加スタイルに合わない。
そうか発信をしてる間ってのは逆に聞くのは止めてしまって、また講演に戻ったときには、こういうリアルタイムブログで遡って何話したっけなあというふうに追ってすぐ追いつけるわけです。

【中根】
そうそうですね。
さっきの前方のスクリーンにリアルタイムのキャプションを出すっていうだけだとせっかく文字化しているのにその文字化していることのメリットを完全に殺していることになってしまうので。
やっぱりそれもったいないっていいなと思う反面、確かにそのパフォーマンスというかPRみたいなことってすごく重要で、こういうものを必要としてる人がいるんだっていうことをわからせるっていう意味ではやっぱりインパクトおっきいんですよねあれ多分スクリーンでてるねそうそうそうです。
確かにおっしゃるとおりしばらくは必要なのかもしれないけど、ゆくゆくはなくなるのかもしれないですね、ああいう前にあるスクリーンで出すっていうのは。

【青木】
逆にもうすごい派手に出すんであれば、むしろすごいインタラクティブな感じがしていいんですよ。
それこそ「アクセシビリティの祭典」だともう話者のすぐそばとか、パネリストの後ろに見えるところにボンって置いてたんでいいんですけど。
もうねえ、僕はもう本当福士の字幕って本当端っこに置いてあって。
変な話、手話通訳の人だって全然端っこに立ってるじゃないですか。
あれこそ喋る人の真横とか後とかに立ってやるのが当然だしでアクセシビリティの祭典はそれをちゃんとやっていたので、僕はすごいなと思ったわけです。
そう。
まさにアクセシビリティだなと思って。
だからいうのをやっぱりむしろやるんであればもっとエンターテイメント性とかですねインタラクティブな感じで、ああいう情報支援なんかをやっていくと。
そのためにはやっぱりスクリーンに出すっていうのをもっと工夫してですね。
ドンと大きく出すとか複数枚出してみるとか、そんな感じでやれば何かいいのかなと思いますよね。
出す意味があるかなそうですね。
そう。
全部あるのがいいですよね手元でも見れてスクリーンもあって、もちろん字幕生中継の生中継の配信もあって、そこにさらに字幕も付くみたいな感じで。

【中根】
そうなんですよ、なんかやっぱり理想的にはあらゆる手段があってその中からそれぞれが一番良いと思うものを選べるようにするのが良いんだけれどももともとはそれは無理だよねっていう話だったのが今別にやはりできるじゃんっていうレベルまで来ていると思うので。
何か方向性としてそっちをもっと提供したいですよね。

【青木】
そうそう、やっとここで僕初めに自己紹介したCode for Nerimaの話になるんですが(笑)。

【いずいず】
美しい流れだ!。

【青木】
UDトークの話で結構いろいろ言うわけですよ、こういうふうにやったらいいじゃんとか、もうこれできるからやればいいじゃんみたいな。
でもなんかそれって実際本当にできるの?みたいな話になるわけですね。
なんかもう実際にやってみようって思って、じゃあどうしようかなと思ったら、じゃあ自分で団体作って自分のちょっと思いつく限りのアクセシビリティとかインクルーシブとか、もうそういうのを盛り込んで活動してみようと。
なんかそういう活動できる母体がないかなと思っていろいろこう探した結果、なんかシビックテックって言葉があって、Code for JapanとかCode for Tokyoとか。
そういうグループがあるわけです。
ちょうどやってる内容的にもそのシビックテックってシビック+テクノロジーですけど、ITを使って地域課題を解決するみたいなことが面白いなと思って。
ちょっとCode for Nerimaって、僕練馬区の会社で練馬区に住んでるんですけどCode for Nerimaって誰がやってるのかなと思ったらやってなかったんですよ。
すぐドメインとって(笑)。

【中根】
重要、重要(笑)。

【青木】
ですよね。

【いずいず】
先に取れって(笑)。

【青木】
で、結局だから誰もいなかったので、Code for Nerimaは僕たち上げようとか思って立ち上げたんですね。
そう。
Code for Nerimaで、実際そのCode for ってその自治体のオープンデータとかそういうのもちょっと扱ったりとかするんですけども今って割とCode forの活動は、各団体多岐にわたっていて、わりと何やってもいいのでCode for Nerimaでまず活動する内容は後から決めるにしても活動方法に関しては、もうそういうアクセシビリティには徹底的にこだわって、手っ取り早いところだととりあえず全てのイベントにはリアルタイム字幕をつけようと、そうで翌日、翌々日ぐらいにもうイベントの全文記録を公開しようと思っうそう大きくその二つですねイベントの開催方法として。

【いずいず】
イベント記録はUDトークで置いてるからデータはあるから、あとはちょっと編集して載せるっていうことが可能っていうことなんですか?。

【青木】
そういうことですね。
もうUDトークの機能を使うと1回イベントをやるときに例えば誤認識の編集なんかをしていくんですけども、もう今はそれはもううちメンバー全員でやるんですよ。
もうメンバー全員に編集権限与えて喋ってるところでもう編集できる人がやってってー、みたいな感じでやるんですね。

【いずいず】
編集ってのは喋ったことが文字化されるけども、漢字変換がおかしかったりとか言葉がちょっと上手く文字変換されてないときに手動で直すっていうことを編集っていうことであってますか?。

【青木】
ありがとうございます、その通りです。
実際には音声認識ってなんかよく精度はどうなのとかって聞かれるんですけれども、正直、精度は100にはならないんです。
運用は何が正しいかっていうわからないんですよ。
例えば、言い間違えたときに、音声認識どう出すのが正しいっていうと結局答えがないんですね。
そういいましたのを間違えて字幕に出しちゃうと字幕は間違っているじゃないですか。
でも音声認識は正しいです。
そこで何かちょっと人工知能が忖度してですね、間違いを正しくしてあげると、字幕はあってるんだけど、音声認識としてはどうなのかって話もあるわけじゃない。
そうですね。
その忖度が正しいかどうかもわかんないです。
結局その音声認識の正さっていうのはあんまり議論しても仕方がないんですよね。
じゃあどうするかっていうと、音声認識の間違ったのをその場に応じて適切に直せるのって、実は人間の仕事なんです。
人間にしかできない仕事なんですよ。
だからありがたくやりましょうというふうに言ってます(笑)。
だんだんAIで失われていく人間の仕事で唯一の残っているのは音声認識の結果を直す仕事なのでありがたくやらせていただきましょう、と(笑)。

【いずいず】
AIのおかげで仕事があるわって感じですね。

【青木】
そう。
そうなんですよ、実はAIで仕事が奪われると勝手に騒いでいる人たちにいいたいのは、仕事がふえるからって言うんですね。

【いずいず】
心配するなと(笑)。

【青木】
そう心配しなくても増えるからと。
逆に人工知能のトレーニングとか、音声認識の精度を上げてくのって実は人間にしかできない仕事なので。
絶対に人間の仕事ってのは形を変えて残っていくんですよね。
そうです。
ただ今はそのシンポジウムとかで例えばUDトーク使う場合に関しては1人か2人ぐらい張り付きで、音声認識の誤認識を直していくっていうふうなスタッフを割り振っておくと正しい字幕を出していけるというふうな仕組みになっています。
もちろんその編集者は何でもいいので会場全体に公開してしまってもいいしほどのスタッフ決めてやってもいいしっていうので、Code for Nerimaの場合はもうそこにしている参加メンバー全員で編集をしていって、その都度、新しい字幕を出していくっていうふうな形でやっています。

【全員】
なるほど。

【青木】
その結果、いわゆるリアルタイム字幕が常にあるので、聴覚障害の方とかがすごい来やすいんですよね。
その後に全文記録が出るので、そこにこれない方なんかでも参加している感じになるんです。
これ翌日には全部共有できるし。
例えばイベント開いてこれない方って、予定が合わない方だけじゃないんですよね。
例えば視覚障害の方なんかで介助が必要な方とか、ガイドヘルパーがが必要な方とか、そういう方もこれないわけですよ。
雨が降るとやっぱり車いすの来づらかったりだとか、そういうことも全部含めるとこれない方への情報提供をすることってすごい参加の機会の増えるんですよ。
「うちのイベント字幕あります」とかっていうふうにすると、今まで参加することができなかった聴覚障害の方がまわりにすごいいるかもしれない。
そしたらやっぱりくるわけですよ。
よく何かそういうのを話したときにいやうちの団体はそういう人が来たいっていうふうに言われたことがないんですよねって言われるんですけどそれは当たり前でし、そういう人が来れる設備とかそういう状況がないから、そもそもこないわけです。

【中根】
そうですそうです。

【青木】
だからよくビジネスのシーンでもそういう話はするんですけどいまなんでアクセシビリティに取り組む必要が企業はあるのかとかそういう話とかで。
結局その潜在顧客とか、アクセシビリティに取り組むことによって、実はまわりにすごいそういうビジネスの対象になるだとか、市民団体だったら参加したいと思ってる人がいるってことにアクセシビリティに取り組むと気がつくわけですね。
そしたら僕なんかでも聴覚障害の方に初めて出会うまでは周りに1人もいなかったんですよ、聴覚障害の人って。
でも1人友達になってこういうのを作って世界に入ってみるともう僕の周りには山ほどいるんですよ、聴覚障害の人が。
でもその人たちは昔からいたんですよ。
自分がそういうことに気がついて、そういう取り組みをすることによって、潜在的にあった、そういういた人たちが、気が付けば自分は気がつき始めるわけですよ。
そうですね。
そうそれでビジネスやる部分にもすごい企業にとってもメリットになるし、顧客のビジネスチャンスも広がりますよね。

【中根】
そうですね、やっぱりよく聴覚障害の方が言うこととしてその「字幕あります」とか「手話あります」とかないところにどうしても行きたければ問い合わせるけれどもでもどうぞどうせだめだろうと思うから問い合わせないみたいな話はやっぱりよく聞くし。
あとそうそう僕自身も例えばこれは一般的に考えると視覚障害の人が来ると迷惑だろうなって思って勝手に忖度して問い合わせないなんていうのは平気でしょっちゅう起こることだから、そこを「あります」っていうだけでぐっとハードルが下がるんですよね。

【青木】
そうなんすよ。
もちろんその方法というのは大変だったわけですよ。
やっぱり全部人がやるわけなのでところが今テクノロジーで字幕は出るようになったわけですよ。
ある程度、これらが使わない手はないだろうと。
本当にわかりやすいんですよね、その人の作業の負担を減らすためのテクノロジーってまさにこの字幕の世界であって、とりあえず置いとけば、字幕は出るんで。
テクノロジーの使いどころってそこなんですよね。
結局やらないとゼロなんですよ。
でもテクノロジーを使って字幕を出すと。
とりあえず手を何もつけなくったって0が1になるじゃないですか。
そうそしたらそこに掛け算をしてるわけですよ。
編集する人をつけてみようだとか音声認識の単語登録をしてみようだとか、そういうふうにまずは0を1にしないと掛け算ができないわけなんですよね。
テクノロジーはやっぱり0を1にするってところができるものなので、だから今は本当に昔大変だった、もちろんまだ手話通訳に関しては手話の手話通訳がやることにはなっていますけれども、まだしばらくはやるんじゃないかなと思うんですけど、字幕に関して言うと、いわゆるこういうアプリとかでできる時代になってきたのでもう本当にいろんな団体とかがこういうのを知ってもらって、気軽に字幕をつけてもらって、そういうふうに、聴覚障害の方なんかは気軽に参加できる環境というのは作ってもらいたいですよね。

【中根】
そうですね。

【青木】
そう大変じゃないので。

【中根】
そうですね、確かにここのもう本当ここのところの音声認識の精度の上がり方とかを考えるともうそろそろ気軽にやってもいいかなって感じになってきましたね、本当にね。

【青木】
そうなんすよね、しかもスマートフォンとタブレットとかその辺が少しあればできちゃう。
みんなが機材持ち寄ってできるんですよね。
そういうのを実際にやってみよう、やってみないと説得力ないなと思ってもう本当にCode for Nerimaをやってよかったなと思うのは、やっぱりそういうふうな環境を見に来る人もふえるわけですよ。
なんかそういうアクセシビリティとかインクルーシブってもうそこら辺で言いまくってるので、うんCode for Nerimaちょっと見に来てみようというので、見に来るわけですよ。
そうすると本当に環境がインクルーシブな感じになってるわけですよ。
やっぱり懇親会なんかにもみんな来るんですよ。
聴覚障害の方も視覚障害の方も。
そうすると飲み会もすごいいろんなコミュニケーション方法を駆使して。
飲み会をインクルーシブにってのは結構重要でして。
実はUDトークを一番どこで使うために工夫してるかっていうと飲み会なんですよね。

【中根】
それ結構大変じゃないですか?!。

【青木】
大変なんすよ。
正直シンポジウムとか会議とかそういうところってもうUDトーク使ってだいぶもう解決できるんで、もういいですよ、任せておけば(笑)。
飲み会に関してだけは、やっぱり何とかこれをテクノロジーでうまくできないかなと思うんですよ。
今もまだ試行錯誤中です。
最近はガンマイク買ってみたりだとか、そう収録用の。
今は割とピンマイク用意しておいたりとかワイヤレスマイク用意しておいて、喋る人のところに持ってってですね、やってみるとか。
そんな感じのことはちょっとやってみんなで工夫しながらやってますね。

【中根】
なるほど、それはなかなかチャレンジングですけどこれはできるとかなりインパクトが大きいですねえ。

【青木】
そうですそうです。
別にコミュニケーションは別にそれだけでもなくてやっぱ手話も入ったりだとかですね、あとはやっぱり視覚障害の方がいたりとかするんで必ず喋る前には名乗って、こっちから今青木が喋りますよみたいな感じで名乗って、話しとかするんで。
なんかそういう体験、それも一個の体験だし、そういう会話のルールですよね、そういうのが必然的にCode for Nerimaに参加していると身に付いていくというか、立ち上げてそういうイベントとか懇親会を通して何か見てるとすごくなんか楽しいんですよね。

【中根】
イベントは、イベントの自体はどういう内容のものをやられてるんですか?。

【青木】
今はもう大きくですね、月1回やる定例会と、月1回やるセミナーっていうのに大きく分かれてますね。
定例会はもう毎月何かネタがあったらやるしって特にネタがないというふうにはもうメンバーの方に自己紹介プレゼンをしてもらうと。
ショートプレゼンを。
それで回して懇親会メインでやってます。
セミナーに関しては、毎月1回外部、外部内部で講師を立てて、そういう話題のトピックについて話したりとか、こないだグラフィックレコーディングについてので。
ITによらずいろいろやってみたりとか。
わりとだからITに絡むというよりは何かいわゆるメソッドの紹介ですよね。
こういうふうにやると情報共有しやすいだとかこういうのを使うとやりやすくなるんだとか。
なんか割と幅広く講師はそういうふうに起用して企画しています。

【中根】
これはもうあれです、興味を持った人だったら誰でも参加できる感じですか?。

【青木】
そうですね。
無料で参加できます。

【中根】
特に練馬に関係がない人も大丈夫ですか?。

【青木】
練馬区以外の人もいっぱいいます。
練馬が好きな人は、練馬に興味がある人はもう幾らでも来ていただければ。

【中根】
練馬に興味がある人!なるほど(笑)。

【青木】
みんな練馬自慢をするんでね(笑)。
練馬区の印象って何か半分ぐらい畑だとかですね、大根しかなとか、JRも通ってないとか。
例えばUDトークに関しては練馬区はもう練馬区全域で導入してるですよ。
なのでうちは練馬区にある企業として練馬区にもUDトークを納品してるんですよね地元企業として。
それもあってCode for Nerimaも練馬区とのコネクションがもうある状態で始まってるんですよ。
主には協働推進課って言われる。
いわゆる区民協働ですね。
そういうのをやってるところと、情報政策課とそのあたりと割とCode for Nerimaが組んで、イベントとかに対応したりとか、してますね。
練馬区はもう練馬区で契約して窓口なんかではUDトークを使って聴覚障害の方に対応したりとか海外の方が来たときなんかでもUDトーク使って翻訳で対応したりとか、そういったことをねやってる実はすごくIT進んだ自治体なんです。
畑とかだけじゃないんです!。

【いずいず】
大根だけじゃないですよと(笑)。

【青木】
大根だけじゃないです!。

【中根】
としまえんだけじゃないぞと。

【青木】
そう練馬区はすごいですよ!。

【中根】
というところで何かずっと黙ってる植木さん何か質問ありますか?。

【植木】
なんか不思議な感覚ですね。
収録に参加しているのにリスナーのように聞き入ってました。

【いずいず】
私もです。

【青木】
喋りすぎてないですか?僕(笑)。

【植木】
全然大丈夫です。
流暢なんでラジオ番組聞いてるような感覚で。
うなずきなから聞いてました(笑)。
UDトーク結構最近、僕らの周りでも知られてきていて、多分今日のこれ聞いて、例えばセミナーとか勉強会とか。
主催してる人なんかはちょっと今度使ってみようと思った人もいらっしゃると思うんですけど。
初めてUDトークを使ってリアルタイムの字幕を例えばサブスクリーンか何かに移したいと思ったときに、何を。
どんなふうに準備すればいいんでしょうか?。

【青木】
そういう人のためにですねホームページにオンラインマニュアルがすごい充実してますから(笑)。
なんか最近そういうイベントで使いたいっていうのはすごくあると、だったらもうイベントで使うためのマニュアルっていうのをもう1個作っちゃおうと思って。

【植木】
がーさすですね(笑)。

【青木】
そうですねもうここは手順通りにやればもう「アクセシビリティの祭典」と同じことができると。

【植木】
詳しくはWebでと。

【青木】
そうですね。
ホームページのトップのところにオンラインマニュアルっていうのがあって、そん中の1個に何かイベントで、イベント開催時のマニュアルっていうのを作ってあるんです。
もうそれを見ていただくと、もう本当手順通りやっていただければ。

【全員】
いたれりつくせりじゃないですかぁ。

【青木】
そうなんすよと結構やっぱ今、オンラインのマニュアルだとか、SNSなんかで使い方のシェアとかってすごい重要で結構そのオンラインマニュアルの作り方なんかもぶっちゃけ汚いんんですよ、すごい。
結構重複してるのが山ほどあって。
でも結局作るタイミングによって全部手順も違うんで。
内容が若干同じでも複数マニュアルってもあってもいいのかなぐらいの感じで作ってるんです。
だから検索したら何か同じような感じでいくつか引っかかるんですけど。
多分それで微妙に中が少し違ったりとかするんで、その人に合ったものを見ていただければいいかなみたいな。
なんか、従来みたいに行こマニュアルってすごい綺麗に製本しなきゃいけないっていうのはなんかちょっともうニーズに合わないかなと思うんだだからこれはちょっと一つ何かマニュアルのアクセシビリティみたいな感じで、とらえてはいるんですよ。
どうやったら見やすいが、どうやったら使いやすいかどうか。

【植木】
でも、イベントでUDトークを使うと思うと、お高いんでしょう?(笑)。

【青木】
なんと無料なんです。

【全員】
えー!(笑)。

【青木】
UDトーク自体はほとんど無料アプリでやってますと、一応もう本当完全無料のものだと、一応少し制限があって本連続で30分、音声認識ができます。
30分たったらアラートが出て止まるんですよね。
また押したら30分いくんですけど、これの制限は月額240円のアドオンを買えば解除できます。

【植木】
え?お幾らですって?。

【青木】
月額240円です。
例えば30分おきにボタンを押す人がいれば無料ですよ。
それは人間の人間しかできない仕事なんでありがたくやってくださいね。

【植木】
使わない理由はありません!。

【青木】
ありませんね。
ただ実はどこで僕がビジネスしてるかっていうのは、法人向けのプランなんですよね。
無料版のアプリっていうのはその喋った音声をこちらで全部いただいて蓄積して、その音声認識の精度向上に再利用してるんです。
これ勘違いされるのは、漏えいではなくて、しっかり管理をした上で個人情報を抜ききって純粋に人工知能の学習なんかに再利用をしているんです。
それはもう無料バージョンになりますので。
でもやっぱり一般企業さんとかですね。
それ自治体とか教育機関とかっていうのはプライバシー扱う情報が多かったりとか。
機密情報があったりとかするんで、やっぱその人工知能の学習なんかに再利用されてしまうとちょっとコンプライアンス的なそういうのがあるんですね。
なので学習に回さないものを提供するときには月額で月額利用料って形でビジネスとしています。
法人向けプランってのでうちのUDトークがビジネスのメインの収入源になってくるだろう。

【植木】
あと教えてください。
YouTubeとかを使っていわゆるウェビナーってやつですね。
ライブでこう配信するなんていうときに、UDトーク孝使ってリアルタイムで字幕を出したりなんてことができたりなんかしちゃったりなんかするんでしょうか?。

【青木】
えっとですねUDトーク並行して使えば字幕を届けることができると思います。
例えば今UDトークに関しては、このQRコードを発行すれば、離れた場所にも字幕を送れるんですよ。
なので、例えばYouTubeとかFacebookのストリーミング配信と並行してUDトークのQRコードも発行しておけば見る人はサブスクリーンとしてUDトークで字幕を見ながら画面でYouTubeを見るとか。

【いずいず】
パソコンでYouTube、スマホでUDトークの文字みたいな感じですね?。

【青木】
iPadだと画面分割できるんで、YouTubeとUDトークみたいな感じで。
一画面でやることも出来ますんで。

【植木】
でもウェビナーで使うとしたらやっぱりお高いんでしょう?(笑)。

【青木】
いや無料です。
基本的にそのUDトークに関しては法人に出してるプランなのものと無料のと機能差はないんです。
全く。
だから別に無料のものでも全く機能制限なくですね同じことを提供することができます。

【植木】
やでも本当に今までセミナーの情報保障っていう意味では、よくパソコン要約筆記の人をお呼びして、要約筆記の方たちのテーブルと椅子席を用意して会場でスクリーンをもう一つ用意して、結構物理的ななんだろう、負担と当然その要約筆記をお願いするに当たってのいわゆる経費コスト。
結構そういうのがネックになっていたところがあったんですけどですねこれから本当にUDトークちゃんと使いこなしていけばその辺もきちんとコストも考えずにクリアできるのかすごくすばらしいというかなんというかこれは積極的に僕自身使っていきたいなと思いました。

【中根】
そうですね、要約筆記とか手話通訳とか。
手話通訳はしばらくまたそういう感じだと思うんですけど要約筆記とか手配するときの大変さっていうのがすごい思った以上のもので、お金があり余ってる人たちは別に、常にお願いすればいいと思うんですけど、なかなかそうもいかない人たちっていうのはいて、そうすると必要だっていう参加者からの要望があったら、依頼するみたいなやり方に当然なるんですがそうすると何週間前までにはみたいな話になったりとかあとせっかく依頼したのに必要だと言った人がこっこれなくなるとかっていうことが起こったりとかっていうことも考えなきゃいけないので結構なんかねえ、大変なんですよね。
だけどそれを考えずにもう最初からUDトークでの字幕ありますって書いとくだけで済むんだったらそれはもう毎回やればいいじゃんって話になりますもんね。

【青木】
そうそういうことです。
すると予想通り、僕はちょっと要約筆記の人から嫌われて(笑)。
これ結構実は切実な問題でいわゆる福祉の制度に入ってないって話をしましたけどやっぱり要約筆記の人たちがやりたくてもUDトークなどできない。
やりたくない人もいたりとかするんですけど(苦笑)。
非常に今要約筆記のあり方っていうのに対してUDトークがすごい議論をよんでるっていうのは実際あるんですよ福祉の世界で。

【中根】
確かにそれ要約筆記でそれなりの技術能力が高い方だったらUDトークの編集とかもお手のものだろうし。
それをちゃんと要約筆記と同じなりそれに相当するような謝礼を受け取ってやれるんだったらその方が絶対、いろんな人にとっていいような気がするんですよね。

【青木】
そうなんですよ。
だからそのあたりに関しては正直面倒くさいので僕かかわるのが(笑)。
ですけれども、いろんな地域の人たちからも話は聞いたりとかして、いろいろ把握はしてるんですけども。
どっちかっていうと地方の人たちの方がUDトークに関してはすごく取り組んでいきたいというふうな気持ちも持ってます。
なぜそもそも人が少ない、支援者が少ない、要約筆記者が少ない。
だから、人が少ないから例えば要約筆記だとどうしても何人か揃っていかないといけないじゃないです。
何人か人が揃わないといけない。
揃わないケースが多く、そうですね。
今まで支援に出たくても出なくて悔しかったと思うしてるとこもあるんです、地方の方は。
実はUDトーク使うと、1人でも支援でいるわけですから。
最悪ね、設定して1人で編集してって形でも支援ができるのですごい支援のできる機会が増えたんですよね。
実はもういくつかの自治体ではもう自治体の派遣する要約筆記の人がUDトークを使えるようになってると。
実はそれで別に大本に決まっているわけではなくて、自治体ごとに決めてもいいですよ。
それでやってるところがあるんですけど、実はそれUDトーク使えるっていうふうに、使って支援ができるっていうふうになお、表に出したら、要望が増えたらしいんです。

【中根】
そうでしょうね。

【青木】
だから何かそういう例ができてくるとだんだん今要約筆記で、それこそさっき言ったその人工知能が人間の仕事を奪うのかみたいな話になってるわけですよ。
特に都市部の人が多くて。
その部分とからだんだんいわゆる軟化していって要約筆記の人たちがUDトークを使って、そういうふうに支援活動をやってくれるなるのかなってとこですよね。

【中根】
そうですね要約筆記ってだいたい2人ひと組だったりもっとちょっと規模が大きいやつだった4人組だったりとかで派遣されなきゃいけないからまずそれ大変なんですけど、あとそれを依頼する側はもう依頼するっていうのは聴覚障害がある方も自分1人のためにちょっとやってもらうのには大げさすぎるかなみたいなそういう気後れみたいなことがあるから、そこのハードル下げるのはすごい重要で、あと行政の側での福祉制度としての問題に関してはもうこれはね、こういうものがありますっていうことを紹介するだけでよくってあとはもう当事者の側から声を上げてかなきゃしょうがないと思うんですけど聴覚障害者本人からね。
だから聴覚障害がある当事者にもっと知ってもらってもっと使ってもらって良さをわかってもらってみたいなことをしていけばその結果としてもう制度の方も変わらざるをえなくなるっていうふうな方向をそういうふうな持って行き方をするのが多分一番いいんだろうなと思いますよね。

【青木】
そうですね福祉のアプローチでももちろんありなんですけども、やっぱり僕はそのシビックテックっていうわりといい切り口を見つけて、例えば先月ぐらいに先々月かなCode for Japan Summitっていうのがあったわけです。
新潟でやったんですけども、2日間で40ぐらいのセッションがあったんですが。
もう全部のセッションにUDトークの字幕付きなんですよ。
何かこれが逆にちょっとそういう福祉よりのところだとなんか今回はこのセッションだけ、この部屋だけとか、何か部分的なところだけどシビックテックそもそもテクノロジーを細胞とがいわゆるミッションなので。
もうもうやるならもう全部つけちゃうよみたいな感じになるわけですね。
なんかよりそっちの方が福祉的には充実しているんですよね、情報保障的には。
何か福祉の切り口でUDトークを持っていくよりは、もうもシビックテックとか、そういうことを私も自分のテクノロジーの活用な方向で持ってって。
だから字幕なんかも普通に出るよねえぐらいな感じで意識付けた方が、ちょっと広がりやすいのそうですね最近思ってるんですよね。

【中根】
それ当たり前だと思った聴覚障害者以外の健聴者の人たちがそういうのを何だろう。
広めていく普及させていく、手段として福祉があるのに使えないっていうのはどういうことだ!って文句を言ってくれるぐらいの方がいいのかなっていうちょっとそうですね。

【青木】
そうそうそう。
でも文句言う価値もなければもうそれでいいわけですよ。
みんながUDトーク使ってるのであれば。
福祉の制度なんかに頼らないように、少なくとも聴覚障害に関して言えば、福祉の制度に頼らなくても自分たちだけでもうわわりと解決できる方法もあるわけですよ。
実際だからそういうのもあって、やっぱりその協会活動だとかそういう障害者活動とかっていうのは結構聴覚障害の分野だとそんなに活発ではないんです。
ここで解決できるような環境も整い始めているので、そうそれ考えると思う今のCode for Nerimaなんて別に福祉の制度を何も使っているわけでもなく、充実してるわけですね。
同じような感じでシビックテックって切り口でテクノロジーを活用していく、団体が増えていけばそれでいいのかなっていうふうには思います。
そうですね。
だからこないだの「アクセシビリティの祭典」なんかでも内容的にもすごいアクセシビリティですごく充実してたし、テクノロジーを使ってやるっていうことに関しては何も違和感なく、皆さん見てるわけですよ。
逆に皆さんすげーなみたいな感じで取り上げてくれれば多分他にも使ってみようと思う人が出てくるわけだし。
多分あの場はUDトークの字幕を何か聴覚障害者のためにあって便利だねと思った人は1人もいないと思うんですよ。

【中根】
そうですね。

【青木】
これは何か情報を補完するためのすごくいい手段でこれからはこうだよねみたいな感じで思ってくれた人の結構いたと思って。
うんそうそれでもういいかなっていうふうに思ってるなるほど。
UDトークに関してはそういえばこの間のアクセシビリティの祭典なんかでもあれ協賛で関わってるんですよね。
正直うちはビジネスとしては企業向けの月額利用料で収益得てるので、ぶっちゃけイベント単体でってビジネスじゃないんですよ。
UDトークの使用に関してはうんそうだから例えばUDトークが協賛って形で入って、例えばいわゆる情報アクセシビリティに関してのいわゆる口出しですよね。
僕が自由にしてもいい形であれば、その協力UDトークって乗っけてもらえるだけで、使用料とか、設備関係に関してはうちから提供するっていうのはできますので。
ただし編集者までお願いしますっていうふうになるとそこはもう実費になりますよね。
自分たちでやるのか、お金払って僕が他に手配するかみたいな感じになるとは思います。
ただ、設備だけいろんな機材とか持ってってた運用とか、そのセッティングとかそういうのをやるのであれば、もう本当に協賛とかパートナーって形で、イベントに関わることはしょっちゅうやってますんで。
ぜひご検討いただければ。
ネタが欲しいので(笑)。

【中根】
それは本格的に検討させていただきます。

【青木】
早めにお願いします(笑)。
そのうち自分たちで使えるような基盤ができれば勝手に使ってもらってもいいわけですし。

【いずいず】
あとこの収録とかも何か青木さん企んでらっしゃるんでしたっけ?。

【青木】
できれば何かこれ全部文字起こしして、なんかそうどっかに公開したいですよね。
せっかくなんでUDトーク使って。

【植木】
でもそれはお高いんでしょ?(笑)。

【青木】
面白いから僕がやりますよ。
僕が喋ってるんだから僕がやりますよ。
けれども、実際その辺のところもそんなに苦労なくちょっとやればできますのでところもなんかお示しできればいいかなって。

【中根】
そうですね、それはちょっと知りたいところだと思いますねこういう感じで比較的なんでしょ、なんかニュース原稿を読むような奴は当然できるでしょってみんな思ってるけどこういうふうに普通に喋ってるのがどれぐらい認識されててかつ編集がどれぐらい大変なのかみたいなのって多分あんまりみんなイメージできてないと思うので、何かそういうことも含めてちょっと情報を出せると良いかもしれないですね。

【青木】
ですよね。
はいなのでちょっとそれはやりたいなと思っています。
ぜひお願いします。

【中根】
ということで大分長くなってきますけど青木さん、他に何か言い忘れたこととか宣伝したいこととかありますか?。

【青木】
そうですねえ。
Code for Nerimaに関してですけれども、ホームページとかFacebookページがあるのでもしよろしければそちらの方に「いいね」していただければと、もちろんUDトークもFacebookページがありまして、うちの会社は広報が優秀なんでね(笑)。

【いずいず】
広報、俺、広報、俺(笑)。

【青木】
そやっぱりそういう情報配信とかは、こちらは積極的にやるようにしていますどこで使われただとか、こういった形があるよとかCode for Nerimaに関してもこういう活動しているよとか、まさに練馬区とこういうふうな活動してるっていうところとかって出してあげると他の団体なんかでも自治体との関わりってこういうふうなことができるんだということも参考になると思うんですよね。
なんか本当に僕は練馬区世界一にしようと本気で思っていて、区民協働とかそういう点において、なんかいろんな人にちょっと参考にしてもらえればいいかなっていうのもありますので、ちょっとCode for Nerimaの方の情報をちょっとゲットしていただくものと、イベントも定例で開催してますのでぜひ来てくださいというところですね。

【中根】
はいということで今回はゲストにCode for Nerimaに今積極的にコミットされているという。
そしてUDトークの生みの親でずっと運用をされているという。
青木秀仁さんお迎えしてお話を伺いましたどうもありがとうございました。

【いずいず】
ということで本日のポッドキャストは以上です!。

【中根】
はいどうもありがとうございます、また次回です。

【いずいず】
まったねー!。

【植木】
お高いんでしょう?(笑)。

【全員】
無料です〜!。

【運用レポート】みどりの風 練馬薪能

10月14日(日)、雨の予報でしたがだんだんと天気が回復し曇り。無事に石神井公園で練馬薪能が開催されました。今年で3回目となります。急に気温が下がって肌寒い夜でしたが、能を鑑賞するにはよい雰囲気でした。

前日の増上寺薪能とどうようのセットでバリアフリー対応を行いました。EPSONのMoverioは4台調達。実際にご利用になったのは2台だったので、残りはスタッフの方や練馬区の職員さんたちに体験していただきました。実は字幕の出し方もMoverioでシアターモードにすることでドラクエ風にセリフが出るので見やすく好評(笑)。遠方の能舞台を見るのにほぼストレスなしで見れます。ただやはりメガネがずれると言う感想が終わったあとにありました。付け心地は改善が必要ですね。

今回もQRコードをチラシで配布し立ち見席と設置されたパブリックビューイングで見れるようにしていました。何人かはご利用いただいていたようです。
能楽を含む日本の伝統芸能の字幕対応は聴こえないかただけではなくてちょっと敷居が高いなぁ、でも興味あるなぁって方にとても役立ちます。増上寺は「アプリ席」があったり、また他の薪能では入り口でタブレットの貸出もあったりしますが、まだ練馬薪能はそこまで字幕のPRをしていないのでしっかり他の薪能を調査して来年に活かしてもらえればいいかと思います。

【運用レポート】初の海外イベント「g0v summit 2018」

なんとUDトークが台湾で開催されたイベント「g0v summit 2018」(ガブゼロサミット)で活用されました。このサミットはアジア最大級のシビックテックイベントで世界各国からの参加者が来ます。世界でも進んでいると言われている台湾のシビックテックはとても注目されています。

https://summit.g0v.tw/2018/


シビックテックとはここでもたびたび触れていますが、オープンデータやITの活用で地域課題に取り組みアプリやサービスを開発したり、自治体と連携して市民協働で地域課題に取り組んでみよう、と言った活動です。UDトーク開発者の僕も東京都練馬区でCode for Nerimaを立ち上げてみなさんと地域課題に取り組む活動をしています。日本からはCode for Japanの代表の関さんがサミットに登壇されることもあり日本からのCode for 関係者やシビックテッカーの参加者もたくさんいらっしゃいました。

ここでUDトークが使われることになった経緯ですが、先月行われた日本のシビックテックイベント「Code for Japan Summit 2018」にg0vのメンバーの方がゲストとしていらっしゃいました。そこでUDトークですべてのセッションに多言語のリアルタイム字幕がついてることにとても興味を持たれて、g0v summitも全部屋すべてのセッションにUDトークで字幕をつけてみたいと言うことに。そしてこの間なんとたった2週間!g0vの意思決定の速さと動き、すばらしいです。iRig2などの機材や配線や使い方などすべて自分たちでやってくれました。しかもなんとUDトークをパートナーとして扱っていただき、スクリーンやパネルに「UDトーク」のロゴが!協賛の紹介でもUDトークと読み上げられるなど、日本のアプリ・サービスが世界のイベントで認知された(大げさw)わけです。ロゴはあえて日本語(カタカナ)にしました。それもインパクトあったように思えました。

各国の参加者が来るg0v summit、中国語と英語の音声通訳がすべてのセッションにありました。これはすべてg0v summitのボランティアで行っているとのことです。なので内容を知っている人たちが通訳をするので、非常にわかりやすい通訳だったとのことです。こういうのを外注ですます日本のイベントとは大きな違いがあることを感じました。
UDトークの運用ですがスピーカーの方は主に中国語(台湾語)で英語の方もいらっしゃいました。各部屋の音響担当者が話者によって英中の音声認識を切り替えます。修正を専任で担当できるスタッフはいませんでしたが、これもCode for Japan Summitと同様「編集可能なQRコード」を配布し、参加者でオープンに行っていく方法をとりました。時々誰かが修正をしてくれていたようです。僕も英語の編集に挑戦をしてみました(笑)。

入り口に中国語、日本語、フランス語、英語のチラシが置かれて、みなさん初日に持っていかれたようでもう2日目にはフランス語しか残っていませんでした(笑)。各部屋(R0〜R3)の入り口にも大きくQRコードが印刷されており、字幕が必要な方はここで読み取ってみることもできます。手元のスマホやタブレットで好きな言語で見ながらセッションに参加することができます。

またすべてYouTubeですべてのセッションの生配信も行っているのでiPadであればプレゼンテーションモードで字幕付きでみることもできます。これはかなり知ってる人じゃないとできない応用でしたが(ほぼ僕だけw)、g0vのスタッフに見せたら面白いがって見てくれてました。

UDトークの国内での積極的な翻訳での運用がないなかで、飛び越えて海外で先に前例ができてしまったことはUDトークにとってもとても大きなことです。しかも手元で見る字幕がこんなに快適なのかと、自分自身でも体験してきました。そうなんです、今回あえて英語の同時通訳は聞かないですべてUDトークだけで参加をしてきました!もちろん自動翻訳の精度は完璧ではありませんが、資料と雰囲気と合わせると内容をなんとなく把握することができ、日本で聴覚障害の方はこうやってUDトークを見ているのかと改めて「見て使う立場」に立てたのはとても良かったです。おかげで沢山改善点が見つかりました。

いくつかのセッションに参加してきたのですが、ひとつ台湾のろう者や手話の課題を取り上げるセッションがありました。事前に引き合わせていただき、僕の日本でのアプリを使った取り組みなどをお伝えしました。そしてセッションですが、なんとUDトークをスクリーンに出すということに!なんとも日本で見慣れた風景で「ここ台湾ですよね?」と思ったくらい(笑)。スクリーン、手話、手元での多言語字幕と、ここ台湾でも理想的な情報アクセシビリティの形が実現しました。その後もg0v summit期間中にいろいろ交流させていただき、またUDトークの中国語字幕でいろんなセッションに参加していただけたみたいです。台湾では音声認識で字幕を出すと言うのはまだなく、もしかしたらg0v summitが「台湾初の自動字幕」だったかもしれません。そしてセッション後はこれもまた見慣れた光景で手話を読み取って文字化して日本語に翻訳されて僕は会話をすることができました。こちらからは日本語で喋ってUDトークの文字で見てもらう。実は日本語の言い回しがなかなかうまく中国語に変換されなくて。途中英語を混ぜたりしながらコミュニケーションを取りました。とても貴重な時間を体験させていただきました。

僕はわりとメインの会場にいて全体的な大きなテーマの基調講演を聞いていたのですが、多くの方がオープンにすることやインクルーシブやダイバーシティの大切さを話しておられました。まさに今回、UDトークでその一つのピースを提供できたのではないかと思います。
こうして日本と台湾でシビックテックと言う活動でつながり、UDトークと言うアクセシビリティの技術も提供することができたのはこの先の社会課題解決に向けてとても大きな一歩だと感じています。これからもg0vと台湾のろう者コミュニティの方たちにはUDトークを活用してもらいたいなと思いました。さて、この実績を引っさげて、日本で開く海外ゲストを招いたイベントにイノベーションを起こしていけたらと思います。十分すぎる前例ができた、と言うことで。

g0v summittのみなさま、ほんとうにありがとうございました!

【運用レポート】第35回増上寺薪能(たきぎのう)

今年で4年目になります。「橘の会」さんの企画のもと、UDトークも参加している シアターアクセシビリティネットワーク(TA-net)の活動としてで行うバリアフリー能。
9月29日、あいにくの雨でしたが増上寺薪能が野外から本堂に場所をうつして開催されました。じつはほとんど雨が降ったことがない増上寺薪能。本堂内もかなりレアですが、S席とA席のみになってしまい、アプリ席を買われたかたはご覧になることができませんでした。ですが、後ろの方の席であればQRコードを配布してもいいですよ、と許可を頂いたので配布。何人かの方はスマホで詞章をご覧になられてたようです。もちろんバリアフリー席ではスマホやメガネディスプレイで手元で詞章を見ながらの能楽鑑賞となりました。
今回はなんと行ってもシアターモードでの能楽鑑賞!ところがやはり暗いのと、遠くだと裸眼で見たほうが見やすいことなどからバリアフリー席の方も最終的にはセカンドスクリーンとして使われておりました。もっとこのあたりは改善が必要だなと言うところです。法要のときは増上寺の方にお経のタイミング出しをしていただきました。字幕が手元でコントロールできるまあちゃん専用のアプリを開発しコントロール。このリモコンは実際の能楽のときにも場所を選ばずにどこでも見ながら字幕が出せるので便利です。まだ公開してませんが、いろいろ整ったらリリース予定です。
4年目ともなるとみなさんもうこのバリアフリー能の活動もおなじみでもう会場には音響設備からの外部出力も用意されていました(笑)。つなぐだけであとはもうアナウンスは音声認識で、能の詞章はタイミング出しで。能と狂言の演目で3時間半の講演が無事終了しました。
また来年に向けてテクノロジーの活用を考えて行きたいと思います。みなさまありがとうございました。
橘の会
https://tachibanano-kai.wixsite.com/tachibananokai

p.s
おまけとして「お経を自動翻訳してみたらどうなる?」ってことで、ちょっとおもしろい写真を添えておきましたので御覧ください(笑)

Southern nothingness Amitabha Buddaha!

さて、なんでしょう?w