カテゴリー別アーカイブ: トピック

【トピック】インタビュー全文掲載「松本江理」さん

先日練馬区と板橋区のタウン誌Kacceに掲載された時にインタビューに回答していただいた練馬区にお住まいの松本さん。記事では超要約でしたが、インタビューにすごくしっかりと回答していただいたのでご紹介とともに全文を掲載させていただきます。
実は松本さんはUDトークのレポートでもたびたび出てくくる「日本補助犬情報センター」のイベントでずっとUDトークを活用していただいています。聴導犬ユーザーでもあり聴導犬を広く知ってもらうための活動を精力的に行っています。

https://www.facebook.com/jsdrc.hojoken/

UDトークは普段の生活でもお使いなられてるし、開発者ともお友達です(笑)。そしてUDトークが開発されている東京都練馬区でCode for Nerimaとしても一緒に地域活動をされています。

練馬区の区民サービスをUDトークで利用されている方のインタビューなので、これから導入検討されているところは参考になるのではないかと思います。

松本さんは日常生活での主なコミュニケーション方法については

「口話。分かりづらいところは手話や指文字などを使う。」

と回答されています。この日常のコミュニケーション方法を前提に以下の回答を御覧ください。

松本さん、ありがとうございました!

ーーー
【UDコードを知ったきっかけは?】

きっかけを忘れてしまうくらい、かなり以前のことですが、CM字幕についての集まりに参加した際に「音声認識で文字化」というものがあることを知り、サイトを調べたところ、「UDトーク」だったというのが初めてだと思います。

【聴覚障害の方にとって、UDトークを一言で表現すると?】

神ツールです。耳から入るべき情報をそのまま「目から」入れることができるという、聴覚障害者にとっては理想の支援ツールだと思います。

【UDトークの特徴は?】

「聞こえない人」=「手話」という図式がありますが、実際は「手話」を母語としてたり、自由に扱えたりする聴覚障害者はほんの一部で、私のような中途失聴者や難聴者は手話よりも、文字情報を必要としていることが多いのです。
そこで、手話の代わりに、と用いられるのが筆談や要約筆記なのですが、どちらも話し言葉そのまま全文を書くことは難しいため、用件のみを端的に書いたり、要約したりすることになります。
そのやり方でも、内容や用件を伝えるだけであれば、問題ないかもしれません。けれども、UDトークであれば、話し手が、どんな言葉を、どんな言い回しを使って話しているか、ということも含め、聞こえている人が得ている情報により近い多くの情報を得ることができます。

ただ、使う時に音声認識をするためにマイク(スマホも含む)が必要で、話し手が変わるときはマイクの移動も必要になる。マイク外の音は拾わないため、話し手の変更にフレックスに対応するのが難しい時もあります。(手話通訳であれば一人二役的にできる)

【区役所や福祉事務所などの窓口で実際に利用したことがあればその頻度や使い勝手、感想などを教えてください(要望、職員の対応などについてでも結構です)】

今年の1月にたまたま福祉事務所の窓口でUDトークの配備を知り利用してから、区民事務所での手続きで数回、区役所の学事課?での手続き、など、公的窓口に行くときはほとんど利用しています。
福祉事務所で初めて利用したときは、配備されているタブレットとマイクを出してきてもらい、それを使いましたが、それ以外は、自分のスマホを相手に向けて話してもらって利用しています。
窓口に用意してあることはありがたいですが、出してくる手間もかかり、扱える職員の方も限られていたり、、ということから、1対1の場合は自分のスマホを出す方が早いからです。少なくとも窓口担当職員の方はスムーズに使えるように準備(練習)していてくださるとありがたいです。
また、私のように普段から活用していて、自分から言い出す場合は別として、来訪者がコミニケーションに支援が必要な場合(外国人を含め)は、もっと積極的に活用したらよいと思います。「書きます」と筆談をしても、手間がかかるだけでめんどくさくなり、結局、口話になってしまうことも多いですし、下手な(笑)外国語をしどろもどろで話して、うまく伝えられなかったり、行き違いが起きたりするくらいなら、便利なツールをスマートに使えばよいと思います。

【日常生活でUDトークを活用している例がありましたら教えてください】

・.公的窓口だけでなく、みどりの窓口や店舗、施設での受付や問い合わせなどの時。
・大学の通信学部のビデオスクーリングの受講(パソコンの映像で講義)
・子供の学校での式典・保護者会・懇談会・説明会、など。(音響設備につなげたり、Bluetoothマイクを使ったり)
・学びの場(防災・福祉・心理などの講演会や講習会)←用意されていない場合は、こちらから要望。
・メンバーになっている地域活動(町会・避難拠点連絡会など)の会合
・聴導犬(補助犬)啓発活動の講演時や打ち合わせなど。
・テレビ番組視聴(字幕なしの番組)

【UDトークの改善点や要望があれば教えてください】

1つのテーブルを数名で囲んでの打ち合わせの時に、今は、フリートークにならないよう気をつけつつ、1つのBluetoothマイクを回しながら話してもらっていますが、そのようなシチュエーション(小規模な会議的な)でもっとイージーに活用できる方法があるといいな、と思います。

 

【トピック】UDトークの使用発話数と翻訳文字数の公開

「UDトークってどれくらい使われているの?」と言う質問を良くいただきます。もちろんこちら側はそれを把握しているのですが、それを明確に数値として出すことはかなり勇気がいることでもあります。

UDトークは今回それをまとめて公開したいと考えました。

ただ、比較するための同様のデータがないのであくまでUDトークとしての規模とお考えください。

ではまず「発話数」からです。青色のグラフになります。

9月 5,610,337
10月 7,222,217
11月 6,970,232
12月 6,278,656
1月 5,782,187
2月 5,836,445
3月 6,139,569
4月 7,962,325
5月 7,369,689

単位は「発話」で、これは音声認識サーバーにリクエストが来た回数となります。言語は日本語のみです。この数字によると4月は日本語だけで800万回音声認識サーバーにリクエストが来たことになります。

平均値を出してみると

平日:30万発話
土日祝日:7〜8万発話

と出ました。UDトークがいかに仕事で使われているかがわかります。使用量は月ごとにばらつきはありますが、全体としては使用回数は増加していることもトレンドラインでわかります。

次に「翻訳文字数」です。緑色のグラフになります。こちらは翻訳の要求が来た文字数をカウントしてあります。

9月 5,053,584
10月 7,325,119
11月 5,900,205
12月 6,453,528
1月 5,342,648
2月 7,161,085
3月 6,886,970
4月 10,611,202
5月 8,001,052

こちらはすべての言語をカウントしてありますが、95%くらいは日本語から英語への翻訳となります。4月には1000万文字の翻訳要求があったことになります。こちらも全体の使用量としては増加しています。

2つを見比べると発話数が多い月と翻訳文字数が多い月は大体同じになっており、特に4月と10月にピークが多いのは節目で会議や研修やイベントが多いのではないかと推測します。

まだ細かいデータは出せるのですが、このデータから言えることは

「音声認識と自動翻訳は確実に使われている」

ということです。音声認識と自動翻訳はまだまだとは言われつつも数字としてはとても多くの人が使っており、使用量も増加しています。このトレンドは今後も続くことになるでしょう。

こちら、資料としてぜひ導入を検討されているところは一つの指標としてお使いください。

CSS Nite LP62「Webアクセシビリティの学校」特別授業

CSS Nite LP62「Webアクセシビリティの学校」特別授業でUDトークによる全文ログが採用されました。UDトークに手話通訳とウェブのアクセシビリティを勉強されてる方たちがアクセシビリティ対応がバッチリの環境で学ばれることはとても意義があると思います。

僭越ながら開発者の青木秀仁、オープニングで10分くらいお時間をいただきUDトークとアクセシビリティについてお話をさせていただきました。

全文ログを掲載いたします。

これからもCSS NiteではUDトークをご活用いただけることを期待しています。

ーーー
はい、皆さんこんにちは。
(こんにちは)
僕はこれでOKです(笑)。

今回植木さんから紹介があったようにですね、ちょっとアクセシビリティの会ということでやっぱり会自体がアクセシビリティじゃないと駄目だよねっていうことでこうやってUDトークというですね、アプリで協力をさせていただいております。

今早速僕が変なメガネをかけていると思ってる方は多分この中の半分以上はいると思うんですけれども、今僕目の前に字幕見えてます。
これメガネ型ディスプレイです。

こういったスクリーンに出すのも良いんですよね。でもそうするとやっぱり自分のペースで読めない。
今日皆さんの手元にQRコードが書いてあるチラシあると思います。それを使っていただけるとですねアプリをインストールして、手元で自分のペースで字幕を見ることができます。

このUDトークというアプリの使い方はそれがメインになります。やっぱり自分のペースで話を聞くスピードもですねそれぞれ読むスピードもそれによってまちまちです。その辺は個別に対応することもアクセシビリティの一つだと僕は考えています。はい。なので、皆さん今日はですね手元で字幕を見ていただけるといいのかなと思います。

そして今僕がかけてるメガネ型ディスプレイ、やっぱりスマートフォンで見たりとかですね。スクリーンで見たりとかって視線の移動が大変なんですよね。でもこのメガネ型ディスプレイを使うと、自分の視線上に常に字幕が入ってくるという。これ何かそんなにすごい近未来のものかと言われると、アマゾンで買えます。

これエプソンの製品なので、Amazonで買うことができます。なので今日これ開催中ずっと回しますので。はい。持って帰らないでくださいね。はい。僕どこかにいますんでね。はい。最後にチェックしますんで。はい。早速今ちょっとこれ回しちゃいます。
こういうのはですね自分から率先して体験した方がいいですよ。うん。自分の持論ですけれども、アクセシビリティとかって学ぶことよりも、やっぱり体験とか想像力なんですよね。実際何かメガネの前に字幕が出てくるっていうふうに聞いたらそんなもんかって思うかもしれませんけどもやっぱ実際に体験してみるとすごいこんなふうに見えるんだとか。うん。もっと自分ならこんな工夫をしてみるなとか。

そういうふうなことがやっぱり気づきがあるんですね。なので今日はこうやってアクセシビリティを学ぶ会でもありますけれども、ぜひ僕はですね、体験と想像力ってのを大事にしていただきたいなと思っています。はい。なので今日皆さんはまずリアルタイム字幕と手話通訳ということを今日体験しますよね。
こういうのがあるとすごい視覚的にいろんな情報が入ってきて、おそらく自らの理解もですね、すごく進んでいくんじゃないかなと思っています。はい。ぜひそのあたりもちょっと今日は意識してですね、学んでいただければいいのかなと思います。

今日はちょっと冒頭少し時間いただいたのでUDトークについてお話をさせていただきたいなと思います。
全てのセッションでリアルタイム字幕を提供しますということです。

じゃUDトークどういう目的で使われているのか。はい。まずですね、やっぱ聴覚障害をお持ちの方への対応ということは日本語をまず日本語字幕で出すこれはですね。もうかなり日本中にこのアプリ広がっておりまして、現時点で43万ダウンロード、あります。はい。全国で400以上の団体、自治体、教育機関、特に教育機関に至ってはですね120大学ぐらい入ってます。それだけ広まっているアプリでもあります。

そうですね。ちょっと統計上ですけれども、4月に1ヶ月間で800万発話ありました。
すごい使われてるんですね。その数が多いのかどうかさえ僕もわかりません。はい。
やっぱりこんだけ日本語がうまくできるとですね、やっぱり今度は外国人への対応できるんじゃないかというふうに皆さん想像するわけです。これが想像と経験ですよね。はい。自動翻訳皆さんもおそらくいろいろ使われていると思います。
最近かなり精度が上がってきましたよね。でも完璧じゃない。

多分アクセシビリティの目指すところそこなんですよね。完璧を目指しちゃったら、結局完璧っていうのはないんですよ。うん。やれるところまでやるどういうことをやったらいいのかっていうことをやっぱり考えながらやる必要があります外国人への対応なんかでも100%の翻訳を目指すよりは
こういうテクノロジーを使って6割7割、いろんな国の人に言葉が伝わればいいなというところでこういうアプリの活用が進んでいます。
後は議事録の作成ですね。今日の記録全て残ります。はい。きっと終わった後にこのログはどうするのかはいろいろアイディアはまたあるとは思うんですけども。はい。何時何分何秒に喋ったというログが全部取れます。

そうすると全文記録の作成もできれば、動画の字幕付なんかもできます。もう従来動画の字幕付けてすごい大変だった作業ですが、UDトーク使うとかなりスピーディーにできます。うまくやれば翌日に全て公開ということもできます。
しかもこのアプリが無料アプリというですね。なんという世の中でしょう。
と植木さんがいつもですね。何かあるたびに「お高いんでしょう?」とかっていうんですけども。
植木さんからお金を取ろうと思います(笑)。

お気づきのように、音声認識技術なんで、やっぱり間違いはあるんですね。これに関して突っ込んでも仕方がないわけです。だから、音声認識の間違ったところは今スタッフが編集しています。はい、別室でのんびりとお菓子でも食べながら修正したりしています。
はい。実はですね今日皆さんも修正に参加できます。うん。今スマートフォンで見てる方がいらっしゃったら、間違ったところがあったと思ったらタップしてみてください。そうすると修正ができます。なのでUDトークのコンセプトはみんなでつくる字幕、みんなでつくる記録です。
こういうのをオープンにしていくことで、いろんなアクセシビリティ可能性が生まれるかなと思っています。はい。なのでぜひ皆さん、全文記録の作成に参加してみてください。はい。きっとそのうち編集権限が取れなくて悔しい思いをすると思います。結構ねゲーム的な感じになってきます。

さらに今はメガネディスプレイもそうですけれどもARとかVR技術で情報支援を面白くできます。今手元で見ていらっしゃる方がいたらUDトークのメニューをタップしていただいて、シアターモードってのがあるんですね。そうするとカメラが起動して、カメラ越しにこう見ることができます。ちょっとね画面が小さいから見えないかもしれませんが、そうするとですねちょっと眼鏡をかけるには抵抗があるなみたいな方でもですねスマホをかざしてその自分の視線上に字幕を出すということができます。結構ね今年からこういう視覚系のアクセシビリティ、カメラを使ってARVR体験をするということはかなり主流になってくるんじゃないかなと思います。いち早く体験してみてください。

さらにこの応用でVRのゴーグルなんかを使ってやることもできます。なのでこういうUDトークとですね、VR機能を使って視覚情報をハックするみたいな感じのことを結構言ったりとかしております。でその辺りはですね、休憩時間とかでも受付にいろいろ用意しておこうかなと思ってますので興味がある方は僕を捕まえてください。多分どっかに居ますんで。

今いいましたけどもかなり今このアプリ広がっております。例えばですねテレビの前に字幕ができるとか本当にリアルタイムで議事録とったりとか、インタビューの記録を取ったりとかそういうこともできるようになります。やっぱりですね自動音声認識とか、自動翻訳の技術を手軽に使っていく、こういうのを当たり前にしていくことがですね、やっぱりアクセシビリティを考える上で土台を上げる役目になると思ってます。

なので、ぜひ皆さんも今日ですねUDトークをインストールして、こういうふうなイベントが開催できるということを知っていただいて、持ち帰っていただき、知っていただいて、持ち帰っていただき、自分たちが開催するイベントでもこういう方法でやっていただけたらいいんじゃないかなと思っております。

やっぱアクセシビリティの話をするんであればアクセシビリティに富んだ会を開催して、かつ、その後いろいろ記録に残して資産化していくことが大事だと思います。というわけで、ちょうどいい時間になりましたのでこれで終わりたいと思います今日は最後まで楽しんでいってください。

【全文ログ】インクルーシブ対応としての字幕のトレンド

2019年5月16日開催、アクセシビリティの祭典でのセッション「インクルーシブ対応としての字幕のトレンド」の全文ログです。ぜひお読みください!

アクセシビリティの祭典セッションページhttps://accfes.com/2019/session/session1.php


青木/皆さんこんにちは。
今回の祭典アクセシビリティの祭典の最初のセッションをつとめさせていただきます。
私、青木と原さんです。
えーとじゃあ座りましょうかね。
トップバッターということですね。
詳しいプロフィールなんかはホームページの方に2人とも書かれているのでそちらを見ていただくのがいいかなと思います。
インクルーシブ対応としての字幕のトレンドというふうなタイトルで、ちょっと紹介をしていきたいなと思います。
実は僕はですね去年のアクセシビリティの祭典でもこのUDトークを使ったことで、後ろの方でいろいろスタッフとして動いておりました。
なんか今回は登壇者の方に回ってくれと言われたので、ありがたく、この場をお借りすることにしました。
何を話そうかなと思うところなんですが、実はあんまり字幕ってことだけに対しての話をすることってないんですよね。
どっちかっていうと、インクルーシブ対応というところで、その中の一部の手段として、リアルタイム字幕って非常にいいんじゃないかみたいな話をよくします。
なので今日はちょっと視点で話をしたいなと思います。
結構短い時間でぎゅっと詰めるのではもう大分経ってますね。
無駄な話はしないようにしていきたいと思います。
とりあえず今日の僕らの講演は写真撮影も動画撮影も個人的に全部OKなので、なるべくよくとっていただいてSNSなんかに公開していただけたらいいんじゃないかなと思います(笑)。
ちょっと簡単に今日の仕組みをご紹介します。
UDトークも結構本当に今使われてる企業団体さんいっぱいあってありがたい限りなんですけども、仕組みとしては今日はそちらの音響設備の方でiPadが置いてあってそこで音声認識をしています。
それでプロジェクターの方に一つiPhoneが置いてあって、無線LANで繋がってる携帯回線でも繋がるんですけども、繋がっていて表示をしている。
あと後ろの方で上の方でですね、誤認識の修正をしてくださっています。
やっぱり音声認識ってどうしても違うところがあるんですよね。
これに関しては正直、そういう機械に対して間違いがあるだろうって突っ込むのもどうかという気がするので、よくAI時代人間の仕事はどうなるのかという話をしますけれども、音声認識の誤認識を直す仕事はまだまだ人間の仕事です。
はい、皆さんで一生懸命やりましょうということで、今日配っているチラシを皆さん今お手元でUDトークの画面を見てらっしゃって手元で字幕を見てらっしゃる方もいるかもしれませんが、皆さんも誤認識の修正ができます。
なので今日多分専門用語がいっぱい出てきますよね。
なので、皆さんが知っている知識をフル動員して、この前の字幕を作っていただけるといいのかなと思います。
いいですね、早速今直ってますね。
これちゃんと直していただけると。
最後、記録が全部綺麗に残ってますので、全文記録が残るってやっぱこういうイベント、大事ですよね。
なので今日は実際に使う使っている現場を見ていただいて、ぜひ皆さんも戻ったら自分がやってるイベントとかそういう会議なんかでUDトーク使って記録を作成して字幕を出してみるとか、そういうふうなことをしていただければいいのかなと思います。
本題に入っていきます。
ちょっと軽く自己紹介ですけども、青木秀仁と申します。
岐阜県郡上市っていうすごい田舎の出身で、元ミュージシャンでプログラマーという経歴を持っています。
最近趣味はなんだろうなあと思ったら結構この翻訳アプリから語学の方にはまっててですね、最近いろんな言葉で遊ぶような、趣味を持っています。
肩書きとしてはShamrock Records株式会社というUDトークの開発会社ですね。
そちらの方とあと最近と地域貢献活動じゃないですけどそういう活動を始めて、東京都練馬区でですねCode for Nerimaという団体を立ち上げました。
おそらく今日来ていらっしゃる方の中にも、Code for JapanとかこちらだとCode for kobeとか板垣さんもCode for Amagasakiとかに入ってらっしゃいますけど、Code for Nerimaの代表を務めております。
その活動もあとで紹介したいなと思います。
UDトークおかげさまでですね本当毎年法人導入が増えてですね今全国で400団体ほどを導入をしております。
これが多いか少ないかは正直比較対象がないのでわかりませんが、大学でいうと100大学以上今導入がされています。
用途としては聴覚障害の学生さんのサポートとかですねあとは発達障害とか学習障害の方への情報のサポートですね。
結構視覚優位の方なんかに凄く字幕いいんですよね。
僕が視覚優位なので基本的に話聞くよりも、見た方がいいんです。
僕はじっとして話し聞けないので、こんだけ喋るくせにね(笑)。
ダウンロード数ですけども、43万ダウンロード、今ありました。
結構行きましたね。
これが、これも比較対象がないのでよくわかりませんけどね。
というわけで、いろんな用途で最近活用されてて、議事録作成とか翻訳の現場で活用されているというふうな話を聞いています。
UDトーク何ができるかというと、こういった音声認識を使って、音声合成、音声認識使って字幕を出す機能がメインで取り上げられることは多いんですが音声合成を読み上げもできます。
この辺のデモはですね、終わったら展示ブースでご紹介もしますので、ぜひ。
なので、実は視覚障害の方なんかもUDトーク使ってる例があるんですね。
ちょっと多言語翻訳機能とかですね翻訳、こういう機能がありまして、見てらっしゃいますね。
それで、皆さんお手元のスマートフォンでも自分の好きな言語に設定して見ることができます。
なのでよく英語対応すれば外国人OKだろうっていうのもやっぱり僕は違和感があって、なんとなくでいいので、いろんな言語の人が理解できるようなイベントとかそういうのが今時のインクルーシブでいいのかなと思います。
あとは、UDトーク振り仮名全部ふってありますね。
やっぱり子供が漢字読めないとか、実は外国人の方が振り仮名ついていると日本語読みやすいっていうケースがあるんですよね。
最近だとやさしい日本語ってカテゴリーもできたくらいです。
そんな機能もあったりとかします。
あと遊び心満載です。
UDトークはですねARとかVRの機能があるんですね。
これは紹介したいと思います。
皆さん今お手元のUDトークで。
この画面になっていると思います。
メニュー押していただいて、シアターモードていうふうにするとこんな感じで。
こんな感じで見ることができます。
例えば、あまり僕のアップ出しても仕方がないですけども(笑)。
こうやって顔を見ることができますね。
例えば、こちら手話通訳の方がこうやってやっていただくと大画面で手話と字幕が見れたりとかしますね。
ちゃんとこれ60フレームのカメラ起動しているので、手話のコマ落ちもしません。
やっぱり視線移動が結構課題なんですよね。
あっち見てこっち見てみたいな感じで。
そういうのをこうやってARとかVRとかそういうので解決していきます。
もうちょっとまともなものを用意してきました。
えっと、エプソンのウェアラブルグラスですね。
これもちょっと適当に回していくので、ぜひ体験してみてください。
今、字幕がカメラ越しに見えるようになってます。
こちらももう僕今日も表にいるので適当に持ってて使っていただければいいかなと思います。
こんな感じで。
UDトーク今日も使っていくわけですけれども、よく話す開発のきっかけですね。
耳が聞こえない人との出会いからですね。
なんか相手に伝えるスキルが足りないのは自分の方かなと思って。
それで音声認識とアプリが作れたんで、なんか自分のスキル不足を補えないだろうかなみたいなところで開発しました。
なので、よくこういうのってビジネスが先なのかっていうふうな、よく言われるんですけれども、本当はじめ自分の趣味で、自分が使いたいアプリを作ったら、やっぱりたまたまそういうのを使いたい人が周りにいっぱいいて。
ちょっとそれを売り物にしてみたら売れるんじゃないかなみたいな感じで売ってみたら結構売れたっていう感じですね。
でもやっぱ自分が今のところまだ一番のユーザーだと思っているので、僕を超えるユーザーが出てくるということを期待しています。
音声認識とか自動翻訳って結構やっぱり今ホットですよね。
AIの技術を活用するとか、人工知能、そういうところで、なので、こういう技術はですね、やっぱりインクルーシブな活動にどんどん活用していくことで、いろんな可能性があることを今日知っていただけたらいいかなと思います。
ちょっとインクルーシブって何っていうふうな話です。
これよくネットとかでも落ちてる画像なんですけども一応自分でそれを参考にして作りました。
例えば一番左側、今画像が出てますけども、一番左側にはエクスクルージョンいわゆるマジョリティと呼ばれる人が真ん中にいる中で、周りにいろんな人が点在してる状態ですね。
ちょっとすごい古き昔の日本みたいな感じかもしれません。
その横がセパレーションといってマジョリティのグループがあるんだけどその周りに、特に同じ特性を持った小さいグループがあるような感じです。
わかりやすく言うとろう学校とか盲学校とかそういうふうな例えになるかもしれませんね。
決して悪いわけではないと思います。
その横がインテグレーション、大きいグループの中に、いくつものグループがある形です。
学校にある仲良し学級とかですね、そんな感じのイメージかもしれません。
その横がインクルージョンな環境って形ですね。
同じこのグループの中にいろんな色の特性を持った方が一緒にいるという。
こういう状態になったときにどういうことが発生するかということですね。
ざっくり言います。
社会課題ってコミュニケーション課題だと思うんですよね。
隣の人とのコミュニケーションができますかと。
例えばさっきのインクルージョンて図だと、隣にいる人が自分と違う特性持ってますよね。
じゃあその方とを話せますか、コミュニケーションがとれますかと、まずそこをクリアしないことにはその先の課題が見えてこないんですよね。
それを突き詰めると、もう社会課題の全ての根底はコミュニケーション課題なんじゃないかなと思うところです。
実はそのコミュニケーションの課題を解決するところにテクノロジーって一番活用ができるわけです。
例えばですね、インクルーシブな世の中へということですが、よくイベント開催されると主催者側がご参加しますって障害者の方とか外国人の方がいたときに、お待ちくださいとか対応しますとか。
なんかいろんなごにょごにょ困るわけですよね。
その時ですね何もしないよりはもちろんした方がいいんですけどもいろいろ残念なことも多いなとよくネットの記事なんかでも出てますね。
でもちょっと僕が考える、イベントってのはやっぱ主催者側がいろんな設備を用意してますよ、とか逆にしてほしいことを言ってくださいねっていうふうにオープンにしておいて、設備として備えつけでこういうものがあると。
必要な人がいるかいないかに関わらず設備として様々な配慮や対応がある。
まさに今日のこのイベントなんかそうですよね。
いろんな配慮があって、いろんな準備をして、別に今日来るのに特別に申請する必要もなくですね、自由に使えるわけです。
こういうのが結構インクルーシブなイベントなのかなと思います。
もちろんこの全てにおいて行うことは難しいことは分かってるんですけども、なんか0か1かで考えるんではなくて、0. 5とか0. 6目指そうよってのでも僕はいいと思うんですよね。
0って本当にゼロで全く何もないんですよね。
でも何かすることによって1でも、0. 1でも0. 2でも出来上がれば、あとはそこに掛け算していくっていうふうな考え方になります。
なのでまずはゼロから脱却するために、そこは努力とか根性ではなくて、テクノロジーを使うのが今時のすごくいい方法なんじゃないかなと。
なのでまずテクノロジーを活用しようというふうに思うことも一つのインクルーシブなアプローチなのかなと思います。
なんかこうやってけっこう喋るとすごい偉そうに何かわかったように喋ってんなお前みたいな感じによく言われるんですけれども、だったら僕が自分でやってみようかなって思ったわけですね。
そうやって自分がちょっと思い描くインクルーシブの具現化する、それがCode for Nerimaっていう団体に繋がります。
今ねCode for Nerimaのですねロゴが出てますけども、これは何に見えますか?。
大根です(笑)。
練馬区練馬大根という名で、大根カラーですね。
もうそうやって言うと多分大根にしか見えなくなってくるんですよね。
それはいいですはい(笑)。
一般社団法人Code for Nerimaちょっと軽くさっきも言いましたけどCode forについて、Code for Japan、Code for Tokyo、Code for Americaとかもあるんですけども今世界中で広がるシビックテックというですね活動ですね。
シビックテックという活動で、シビック+テクノロジーなんかみんなのテクノロジーみたいな感じの言い方もされることもあります。
もともとはオープンデータとかですねそういう自治体が公開しているデータを活用して地域課題を解決するというとこから始まりましたが、今はあまりそういう活動にこだわらず、いろんなことをしていると思います。
一応全国で80以上のCode forという冠をつけた団体があってもちろん、この地域もあったりとかします。
これが面白いのが、練馬区っていうキーワードだけで集まるんですよね。
そうすると職業とか年齢とかも関係なくなってくるんでやっぱりインクルーシブな環境になるわけです。
多種多様な人が集まるコミュニティの楽しさというのがあるわけです。
おそらく皆さんも仕事を離れて、例えば何かビリヤードとかダーツとか、それとかやる場に行くといろんな職業の方いらっしゃいますよね。
なんかああいう仕事とは関係ない肩書きとかカテゴリで集まるコミュニティの場っていうのはいろいろ気づくことが多いです。
Code for Nerima何をやっている団体かというと大きく活動は三つあって、まず練馬区で開催されるイベントの情報アクセシビリティのサポートを行っています。
区の公式イベントとかやってるんですね。
今年の成人式の字幕対応をやりました。
実は東京都はですね去年の統計だと8人に1人が外国人の新成人がいるというふうになってます。
なので実は成人式って他言語対応がもう必須なんですよね。
二つ目、オープンデータを活用して住民サービスを企画提案開発。
ところが練馬区がまだあまりオープンデータが出てきてなくてっていうと結構怒られるので言いませんが(笑)。
なので、そういうのもやっておりますと。
3番目が結構僕が今年から力を入れているイベントで、多文化共生について取り込む。
多言語カフェというですねそういうイベントをやっております。
こちらだけで紹介すると1時間ぐらいいっちゃうんで、後で詳しく知りたいかたはブースに来ていただければいいかなと思います。
このCode for Nerimaの活動方法ですけれども、まずイベントには全てUDトークで字幕を付けています。
そのイベントの内容とか全文ログは全て保存して公開しております。
実は何かこういう字幕って本当に聞こえない人のためとか見ることのものだろうって言われるんですけれども、実は全文記録を保存しておくとそれを読み上げで読んだりだとかですね。
もちろん僕らだって全部覚えてるわけではないので、それで記憶を呼び覚ますみたいな感じの活用方法なんかもできます。
あとはメンバー全員に発表の機会を持ってもらってます。
どういうふうに発表するのか。
もちろんこれは視覚障害のメンバーとか聴覚障害のメンバーなんかでも自分で自分の自己紹介をする方法。
これを一緒に考えていきます。
どうやって発表しようか、どう伝えようかとか。
聞く方も喋る方も一緒に考えるということをやっております。
あるブログで何かそうやって地域活動やってる人って実は困ってないよねみたいなすごい爆弾発言があって(笑)。
でも確かにそうなんですよね。
僕もあんまり東京練馬区に住んでいて困ってないんです。
だったら困ってるメンバーを入れればいいんじゃないか、そこにいろんな気づきがあるという。
実は僕はUDトークはそんなに障害者の方とか外国人の対応のためにやったわけではないんですね。
自分たちで記録も残していきたいし、自分たちでもわかりやすいように共有していきたいしっていうんで。
やっぱりいろんな方に来てもらうための方法を用意するにはどうしたらいいかなというところを考えたら、結果的に本当にいろんな人が来てくれるようになったというところです。
現在正会員で40名ぐらいで会費で運営をしている団体です。
実は結構Code forの中では規模が大きいんじゃないかなというふうに自負しております。
なのでいろんな方法ですね活用してCode for Nerimaの活動は結果的に誰でも参加できる。
インクルーシブな環境になっておりますはいわけでそろそろ時間になりましたので僕のパートは。
結局アクセシビリティとか。
インクルーシブって何なのかなと考えると「体験と想像力」だと思うんですよね。
やっぱり机上の空論で話してもだめなんですよね。
体験することによって、こういうときはこうなんだとか。
こういうときはこうなんだってことを学んでいきますあと想像力です。
やっぱり1回なんか耳聞こえない人と関わってみると、何かこのイベント自分もし耳が聞こえなかったら参加できないなとか。
もし1回でも目が見えないかと付き合ってみると、この資料、全然わかんないなとか。
例えば車いすの方なんかと付き合ってみると、そもそもこの場所に来られないなとかもう本当ね最近いろんなことを考え始めちゃって、かつ最近外国人の方と付き合うなってくると、ここ日本語わかんないと来れないなみたいなも考えることが山ほど出てきてしまって結構大変なんですけども。
何かそういう想像力っておそらく今日来てる方なんかでもクリエイターの方とかも多いと思うんですけども、すごくこうエネルギーなると思うんですよね。
なので体験と想像力ってのはですね、もし自分が○○だったらってことでもうどんどん考えて言っていただければいいのかなと思います。
そういう考えがおそらくこれからのインクルーシブな環境とかそういうのに繋がっていくのかなと思っております。
というわけで僕のパートを終わりたいと思います。
ご清聴ありがとうございました。

原/青木さんありがとうございます。
次のパートは、僕の方になるんですけども、実はわたくし当事者、聴覚障害者となります。
生まれたときから、ろうなんですけども、手話を始めたのが3年前ぐらいまでなんで、それまでは口話を中心にですね、社会の中で生活していました。
青木さんのスライドとはちょっと変わってくるんですけれども、ちょっと会社の方をですね、紹介させてもらいたいなと思っております。
実は、塩野義製薬っていうところで働いておりまして、ただいまコミュニケーションバリアフリー、気づきを形にマイナスをプラスにと言う形でプロジェクトをやらせてもらっています。
どんなことをやってるかっていうのは、うちの会社の場合はですね、製薬会社ですので、お薬を病院で患者さんに届けるという使命があります。
そのお薬を届けるにあたって、すべての人に届けたい、すべての人って言うのはどういう人達かというと、健常者もいますし聴覚障害者やいろんな障害をお持ちの方もいらっしゃいますけれども、その中でお薬をもらうときにバリアを感じている人たちがいないだろうか?ということを我々当事者が気づきを得てですね、プロジェクトを立ち上げました。
このプロジェクトは、2021年の3月までにすべてのお困りの人たちを、全てバリアフリーで行きましょうっていう、壮大な目標を今掲げておりまして、そのためにはどういうふうにやったらいいのかっていうのをメンバーで一生懸命考えて、やっています。
プロジェクトに3本柱がございまして、患者さんだけでバリアを工夫しても意味ないよねと、医療従事者に対しても、塩野義製薬の従業員が障害のことを理解する必要があるよね、というようなことを3本柱で立てて、その中の一つとしてUDトーク入れるっていう目標も立てております。
ちょっとこの後のスライドについては、ちょっとビデオを作成しておりますので、みなさんにビデオをごらんいただきたいなと思っております。
ちょっと準備するまでお待ちください。

(ビデオ)皆さんご存知でしょうか?。
日本には耳の聞こえない人、聞こえにくい人がおよそ2000万人います。
これは国民の6人に1人の割合です。
全世界では4億7000万人もの人々が聞こえに問題を抱えています。
聞こえはとても身近な問題。
オフィスで後から呼ばれても気づきません。
病院やクリニックの待合室で名前を呼ばれても気づきません。
日々の生活、車のクラクションに気づきません。
オフィスで会議の進行について行けない場合もあるので内容を教えてほしいです。
薬局や病院で医療従事者のマスクを外して、口の動きを見せてほしい。
災害時の緊急事態では状況がわからないのでお知らせ内容を教えてほしい。
電話が取れないため、周囲のサポートが必要です。
ナースコールで緊急連絡したら、直接来てほしいのです。
病院の予約変更や薬の問い合わせはメールでなく電話対応のみが多いです。
このようなことが続くと、社会から隔離されたような寂しい気持ちになってしまうこともあります。
困りごとを解決したい。
日常的に困りごとが多いと外出すら億劫になる。
ますます消極的な気持ちになってしまいます。
聞こえないことによる生きづらい社会課題を解決していきたい。
そうだ、みんなで力を合わせて立ち上がろうよ。
そこで、私たちはこれらコミュニケーションにあるバリアを解決すべく、2015年10月。
コミュニケーションバリアフリープロジェクトを立ち上げました。
コンセプトは気付きをカタチに、マイナスをプラスに。
立ち上げ当初は社内でもニーズがない、バリアフリー対応は手間がかかるなどの意見もありましたが、全ての人に必要な薬の情報を伝える思いはみんな同じだったと気づきました。
聴覚障害を持つ当事者ならではの目線を生かし、製薬企業として社会に貢献したい。
誰もがポジティブに生きていける世の中にしたいという思いを伝え、1人また1人とメンバーや応援してくれる人が増えていきました。
シオノギには常に人々の健康を守るために必要な最も良い薬を提供するという基本方針があります。
塩野義三郎は、大阪府立生野聴覚支援学校設立の後援会員名簿に名を連ね、聴覚障害者への支援を行っていました。
CBFプロジェクトは、従業員のために、医療従事者のために、患者さんのためにという3本柱を軸に様々な活動を行っています。
会議のときなど、会話がわかるように音声を認識し、リアルタイムで文字化するアプリUDトークを導入し、社内の情報保障を整備しました。
年頭の社長メッセージのビデオに字幕を入れることで、わからなくて当たり前という聴覚障害従業員の疎外感がなくなり、周りの社員との一体感が生まれました。
障害を持つ患者さんもバリアフリーで受診できるよう、医療機関向けセミナーを各地で開催しています。
誤解が多い食間食前を子供でも分かりやすく、まんがで説明した服薬説明ポスターを作成し、配布しています。
聴覚支援学校でも聞こえない子供たちへ働きかた講座を実施しました。
他にも検査技師の放送指示が聞こえないため、胃バリウム検診の流れをイラストで説明したポスターなども制作しています。
テレビ放送のミュージックフェア内での市販薬CMにおいて、字幕つき放映を開始しました。
当事者の自己表示ツールとして様々な文言を用意した耳マーク、筆談マーク入りのしおりカードを用意しました。
どなたでも来館しやすい窓口作りとして耳マーク、補助犬ステッカーを塩野義製薬本社受付に設置などのバリアフリー活動を展開しています。
これまでの活動の中でたくさんのご意見や感想をいただきました。
CBFセミナーに参加した医療従事者からのコメントです。
医療機関としていろいろなコミュニケーションの方法を備える必要性を感じた。
わからないからもう一度言ってくださいと言ってくれた難聴者の方は大きな勇気を持っていたのだと気づくことができた。
聞こえについてあまりにも知らないことが多すぎた、誤解していた。
などなど、多くのご意見をいただきました。
コミュニケーションバリアフリープロジェクトの最終的なゴールは、医療機関、製薬業界だけでなく、社会全体で障害の有無によらないカタチを実現させることです。
誰1人取り残されないために。
シオノギコミュニケーションバリアフリープロジェクトの挑戦は続きます。
気づきをカタチに、マイナスをプラスに実現させるために。

原/ありがとうございました。
ビデオは以上になります。
こうした取り組みの活動がですね、東京の方でも認められるようになってまして、こういうふうに心のバリアフリーというのを登録証をいただくことができました。
今後もですね、全国でも、こういった取り組みを地方団体、行政の方から、表彰されるように一生懸命頑張っていきたいなと思いますのでどうぞよろしくお願いします。
以上でございます。
ありがとうございました。

青木/ありがとうございました。
というわけで、あとの時間はですねせっかく2人でいるので2人で全く会話をしないのも仲悪いんじゃないかみたいに言われるとあれなので(笑)。
あと10分くらいですね、いいと思います。
ちょっとお互いに質問を一つずつ考えて来ました。
なので、それについてですね、話をしてみたいなと思います。
まず、パネルディスカッションとしまして、ジャン、原さんの方から。
「いつUDトークが必要なくなりますか」と、いう質問ですけど。

原/ちょっと、これ言うとちょっと感じ悪いふうに見えるけども(笑)。
以前NHKの方に青木さんが出演されたんですねUDトークについて。
2016年10月ぐらいに放送されたもので、実はその時には知らなかったんですけれども、再放送の部分がありましてそのときに初めて見たんですね。
最後に青木さんの目標って何ですか?って。
僕の仕事がなくなる、UDトークがなくなる、でそれってどういう状況になってるかっていうのが、社会全体が字幕を出すことが当たり前になるよねって、ということを想定した上でUDトークなくすことが目標だというふうにおっしゃっていたので、あれから4年経ってるんですけど、っていつなくなるのかなって?いうのをちょっと改めて質問させていただいたのが背景でございます。

青木/わかりました。
4年も経つとやっぱり考え方が変わるものでしてはい。
確かにいくつかのインタビューで言ってるんですね。
なんか、意図としては、個人が頑張んなくてもいいような世の中社会になればいいかなって。
僕も正直なんかも障害者の自立支援ってすごいその言葉自体がどうかと思ってて、なんかなりそっちばっかりがんばるのみたいな。
歩み寄ればいいし、特にコミュニケーションの問題なんて、もう歩み寄るしかないんですよ、もう解決策としては。
そんな中で、片方だけなんかUDトーク使って頑張る世の中がなくなればいいかなと思ったんですけども。
実は僕もUDトーク結構便利なんですよね。
ほとんど聞いたことを覚えてないし、記録残ってるとすごく便利だし。
なので別に頑張るがんばんないじゃなくて個人でいろいろやることって非常に、自分にとってメリットがあるかなというあったら、どんどんどんどん新しいツールとか新しいものとか自分で工夫して何か生活としていくとか、仕事をしていくとか、それこそコミュニティに参加してみるとかっていうふうなこと、そういうとこに目指していけばいいんじゃないかなと。
だから、UDトーク必要なくなったらまた別のアプリを作ろうかなと。
早速今別のアプリ作って紹介してるので後でインストールして帰ってください(笑)。
ちょっとねUDトークが割とプロ用の機能が入ってきてややこしくなってきたんで、すごい簡単に使えるですね、翻訳アプリ会話アプリを作って、今無料で配布していますVoiceOverに完璧に対応してますんで大丈夫ですこれ、素晴らしいでしょ?。
そういうのもやっぱり体験からくるんですよね。
大事です。そんな感じで。

原/当時の、3年4年ぐらい前にUDトーク導入するに当たって、いろいろいろんな会社の音声認識ツールを比較したんですけど、その時点でもやっぱり青木さんのツールっていうのは、良い言い方をすると4年5年ぐらい先を見据えたツールになってるなと。
今、他の会社が青木のコンセプトに追いついてるっていうのがあって、ものすごい大きな会社については、ビッグデータの量が多いのですけれど、、その会社さんに青木さんがのみ込まれるとか、吸収されるとか、差別化されるとか、そういうのは危機感みたいなものはないんですかね?(笑)。

青木/そうそう。
そうなんすよ。
うちの会社って僕しかいないんですよ。
1人だけなんですよ。
一応奥さんが経理やってますけどほぼ1人で、開発と広報とこういう場にも来てるんで、小さすぎると何も構ってもらえないんですよね(笑)。
あとちょっとこれ幸いだったのがUDトークってあんまりもう全く助成金とかそういうのを使わないで自分のニーズから始まってすごい小さい規模で作り始めて今大きくなっているので、ちょっと変な言い方するとどこにも貸しがない感じでやっているので割と自由にできるかなと。
あとはもうやっぱりどっちかってと身近な人とかに使ってもらって、なんか良かったねって言ってもらえる方が僕もうれしいので、でも本当にいろんな今アプリとかが、最近Googleなんかが結構本気でCSR活動に参加してきて、何か音声認識で字幕でるみたいな。
あれすごいことだと思うんですよね。
なんかもああいうので、もうどんどんいい音声認識のアプリとかそういうのが出てきても一般的にぱっと広まってくれると、僕にとってもビジネスにとってもすごいメリットがあるかなと。
正直ね、こういう業界って、1人勝ちとかって、あんまりメリットないんですよね。
だからちゃんと、その市場を広げるために、いいアプリが広がっていくってことが大事かなと思います。

原/僕もいろんなアプリが出ていって、選べる立場に立つとより生活しやすいなという形でやっていけたらいいなというふうには感じてます。
ありがとうございます。

青木/その中でもUDトークとか選んでいただけると嬉しいかなと(笑)。
いうとこですね。
なので、どんどんこれからまた新しいアプリできるのは期待していただければいいかなと思います。
次に僕から原さんへの質問です。
「音声認識でどう生活が変わりましたか」と。
もちろんこれは聴覚障害者の立場で大丈夫です。

原/そうですね。
一番最初はね、テレビの字幕が出るようになってきて、字幕は録画の場合の字幕であって、リアルタイムの生放送だとか、字幕がないときに、何だろう、家族の中で、テレビ見てたときに自分だけが透明人間になっているような気分っていうのがよくありまして、スマホあるいはパソコンもそういった自分たちでデバイスを持つようになったときに、その中にUDトークっていうアプリが入ったことによって、生活ってのが仕事も含めてなんですけど、リアルタイムで字幕を見ること、見るっていうのも聞くっていうふうになるけど、見ていくっていうことで、一体感、動画にもありましたけど、リアルタイムで情報を周りの方たちと一緒に共有できるっていうのは透明人間からリアル感がすごい出てきて脳が活性化し始めるんですよね、リアルタイムでわかることによって。
いやいや、今まで結構、情報支援、情報保障って後で情報出してあげたじゃないか、議事録は渡してたじゃないかと。
後で教えて上げたじゃないかと。
いや違うんですよ。
飲み会の場だったり、会議の場だったり、コミュニケーションのリアルタイムのときに置いてきぼりにされているというのがちょっとあったので、今回このUDトークあるいは音声認識がというのが出たことによって、その場に自分の存在価値が示せると言う、感じるようになる。
こうしたアプリは、もう本当に感謝でしかないし、今後の生き方、生きがい、安心感を覚えながら生きていける、安心して暮らせるっていうのは、本当におおげさじゃないんだけれども、本当にそういうふうに感じられる時代に生まれてよかったらというのがあります。

実は手話は僕できないんですけど、3年前に手話始めたばっかりなんですけど。
だから、ずっと口話で聞いていて分からないなりに自分で推測していったっていうのがちょっと今までずっとあって、その中に誤解が生まれて、コミュニケーションができなくなって、いわゆるKY、空気が読めないないやつだとか、レッテル貼られたときもあったので、今後は手話も勉強して、音声認識ツールも使い自分たちがリアル感を感じるのはいろんな手段を、自分でリテラシーを高めて使っていくっていうのが大事なんじゃないかなというのは、思いましたね。

青木/そうですよね。
最初に会ったとき僕一生懸命手話してましたよね(笑)。
実はやっぱり思い込みあったんですよそれまでも、外国人は英語と同じような感じで聞こえない人は手話っていう。
手話は使える人も実際は少ないと聞いております。
今ちょっと皆さんも見ていただいて分かるようにやっぱり原さん少し喋り方が難聴者の喋り方なんですね。
音声認識の認識率もちょっと低い、ちょっとじゃないかな?低いですね。
今言ったように誤解をちょっと有無とかそういうのもあるんですけども「聞こえにくい人同士のコミュニケーション」というのが今一番の課題なんですね。
おそらく、聞こえる人から聞こえない人とのコミュニケーションももちろん放送の媒体を受け取るとかテレビとかそういうのおそらくもうこういう音声認識で解決の方向に向かっていくと思います。
手話ができる人、手話ってすごい僕も大好きできるんですけども、コミュニケーションツールとしては非常に便利なんですよね。
水の中でも会話できるんでこれすごくないすか?。
でもやっぱり手話、後から習得しなきゃいけない、これも一つの語学なんでやっぱ大変なんですよ。
皆さんが英語を覚えるのと同じぐらいな感じだと思っていただければいいと思います。
だから、やっぱり手話を習得するまで、習得するモチベーションがない中で聞こえづらくなって聞こえにくい人同士でコミュニケーションとるときってやっぱり筆談とか、パソコンとかスマホ、いまだとスマホで文字が打てるんでいいですよね。
そういうのもやったりとかします。
だからどこまで音声認識の精度とか上げられるかっていうとこはやっぱデータの収集とかそういうふうになるんですね。
なのでUDトークは今皆さんが使っていただければ使っていただけるほど、音声データが集まってAIの精度が上がっているという状態になってます。
だから本当に皆さんがいっぱい使っていただくことによって、協力していただいて、それで精度が上がると、だからもちろん難聴者の方にもちょっと間違いは多いかもしれませんが、積極的に喋って使っていただけるとですね、その音声も集まって精度も上がるという。
でもそれで面白いのが逆に難聴者の方の喋り方が上手になってくるんですね。
確認が出来るっていうふうなことになります。
でもこれって実は僕らも英語とか中国語を勉強するのって音声認識すごい使えるんですよ。
発音のチェックなんかにすごく使えます。
なので今日皆さん帰ったらUDトークとか、そういう音声認識のアプリで何か発音の練習なんかをしてもらえればいいかなと思います。
きっと何か生活変わるんじゃないかなと思います。

原/今後もUDトークの発展に期待していますよ。

青木/はい、おまかせください。
まだしばらくなくならないと思いますよ(笑)。
それがいいのかどうかはわかりませんが。
ちょうどいい感じのとこなので。
今メガネディスプレイどこ行ってます?。
まだ回ってないですよね?回りましたぁ?。
じゃ外にブースあるんで持ってきてください(笑)。
とり行けよって話ですよね。
最初のセッションをこれで終わりたいと思います。
今日一日、これからどんどんセッションが続きますので、皆さん楽しみに、いっぱい収穫を得て帰っていただければいいかなと思います。
ありがとうございました。

原/ありがとうございました。

【トピック】UDトークの特徴って?

最近いろんな音声認識や自動翻訳のアプリが出てきてとてもうれしく思っています。当たり前に使うような世の中になることが大事ですね。
そこで最近とても多いのが「どれを使ったらいいの?」ですが、それぞれ良い機能があるので好きなものを使ったらいいと思います。
でも一応これはUDトークの投稿なので「UDトークにしかできないことや特徴」をいくつか列挙してみたいと思います。

■長文認識
講演などの連続発話を途切れることなく認識させることができます(アドオン購入時または法人向け)。一般的は音声認識アプリは短い発話か長くても1分くらいのものが多いです。

■単語登録
UDトークの日本語音声認識は独自に単語登録ができます。いまのところこれが手軽にできるのはUDトークだけだと思います。

■記録がすべて保存できる
テキストデータは時間情報を含むもの、またICレコーダーのように音声も保存できるのでインタビューの文字起こしなどに活用することができます。

■通信機能
QRコードで通信してお互いの端末で見ることができます。似たようなことができるものはありますが、UDトークはとても安定しています。

■編集機能
通信機能を使いながら同時に誤認識の編集をしていくことができます。リアルタイム編集の機能はおそらくUDトーク以外には実装されていないと思います。

■とりあえず認識結果を出す
これは一長一短ですが、UDトークの日本語エンジンAmIVoiceは入ってきた音に対して何らかの結果を返します。雑音でも何かしら返して誤認識結果を出しますが、これはポジティブに捉えると「音があったこと」が分かるので字幕作成などには有効です。他社のエンジンなどは雑音は処理の対象外にするものもあります。

■AR技術との連携
シアターモードやメガネ型端末への対応など遊び心満載です。

■国産アプリ
日本(東京都練馬区)の小さな会社が作っています。現場運用に近いところで開発しているのでかゆいところに手が届く機能が実装されています。

■法人向けのサービスで日本一(?)
あまり競合がなく他社のものが公開されていないので分かりませんが、400団体を超える法人ユーザーを抱えています。

まだいくつかありそうですが、UDトークはただの翻訳アプリではなくリアルタイム字幕の運用に適していたり、記録を作成していろんなことに活用できる機能がたくさん実装されています。なので最近は会話に特化したSmilingual(スマイリンガル)と言うアプリと併用した運用をオススメしていたりします。

いろんなアプリ、それぞれ得意な分野があるのでいろいろ使ってみてください!

【トピック】イベントでの運用方法2つ紹介

UDトークは「喋った言葉を文字にする、翻訳をする」と言うとてもシンプルな機能を提供しているアプリです。なので使い方や運用方法はいろんなパターンが考えられます。

そうしたナレッジをまとめてイベントでの運用方法2つをご紹介したいと思います。


1.コスト最小限!多言語自動リアルタイム字幕

  • スクリーン投影:なし
  • 単語登録:しっかりと
  • 同時編集:なし

リアルタイム字幕はQRコードを発行して参加者のお手持ちのスマートフォンで見てもらいます。イベントでの準備は予めこちらのマニュアルにそって準備をしておきます。

イベント開催時のマニュアル

イベントが始まったら音響設備に接続してある端末の「タップして話す」ボタンを押すだけです。あとは自動で認識してQRコードを経由して参加者の手元のアプリへ字幕を送信します。単語登録がしっかりされているので認識率もそこまで悪くはないです。こちらの運用方法はSEMICON Japan 2018で実際に運用されたパターンです。すべての会場、すべてのセッションに完璧ではなくても字幕を提供したい、しかも低コストでということが実現できました。もちろん終了後にはすべてのセッションの全文ログが保存されています。録画されている動画と照らし合わせてあとから編集をし全文記録を必要に応じて作ることができます。

これにかかるコストは

  • 機材のレンタル費用
  • スタッフによる単語登録の作業
  • 必要に応じてコンパクトプラン、もしくはイベントプラン

のみとなり、UDトークのリアルタイムの運用に関してはスイッチをいれるだけなのでほとんどかかりません(アプリが落ちたときに復帰するくらい。アプリなので絶対に落ちないとは言えませんので)。

ただし、自動翻訳を利用するときは「原文が100%正しいことが条件」でもあるので様子を見ながらちょっと修正するだけでも効果は大きいと思います。


2.リアルタイム字幕はエンタメ!スクリーン投影

  • スクリーン投影:あり
  • 単語登録:分かる範囲で
  • 同時編集:あり

シンポジウムやカンファレンスで自動でリアルタイム字幕が出てくるのはある意味「エンタテイメント」でもあります。それにスピーカーの写真を取るときにあえて字幕をフレームに収めると「その人が何を喋ってるときの写真なのか」が分かる、いままでにはなかった新しいメディアとして扱えます。従来、福祉の世界では隅っこに追いやられていた字幕が、音声認識でこのスピードで全文出てくると非常にエキサイティングなのです。これはスーパーマーケットトレードショー2018での運用例がそれにあたります。

ただしスクリーン投影をすると言うことはそれなりに目に入るので間違ったものは直して行ったほうがいいでしょ。かつ、スクリーンは一方通行に流れていきます。手持ちのスマートフォンであれば例え音声認識の結果が間違っていても、後の結果をみてさかのぼって内容を再確認もできますが、スクリーンだけみているとそうもいきません。なのでスクリーン投影をするときは編集作業は必須となります。

ただし編集者をつけるときはだいたい常時2名、張り付きで作業を行うことになり、それなりに人件費がかかってきます。ですが、そのぶん事前準備のコストを下げることができるのでそのあたりは「どういう字幕を出したいか」によるバランスにもなってくるかと思います。でも編集者は特別なスキルは必要ないので、そのイベントのスタッフさんが開いてる時間に行うというのも十分可能です。

自動翻訳を利用するときは「原文が100%正しいことが条件」でもあるのでこちらの運用だと多言語字幕も安心して提供できると思います。


1か2か、もしくは1をベースに考えてポイントとなるところだけ2で対応する、と言ったパターンも考えられます。大事なのは「全部で提供する」ということです。「この時間帯だけ」とか「このセッションだけ」のような提供の仕方ではなく、場所や会場単位で対応していくのが良いと思います。

ちょっとおまけで、3を挙げますが、こちらはあまりおすすめしません。


3.編集者なしでスクリーン投影はおすすめできない?

  • スクリーン投影:あり
  • 単語追加:そこそこ
  • 編集者:なし

もちろんないよりはあった方がよいのですが、参加する全員がちゃんとUDトークのことを分かっていることが重要です。何も知らない人がみると簡単に直せる誤認識が放置されているので音声認識の評価を下げるだけなので、あまりおすすめはできないです。


と、いくつか運用パターンを書きましたが、これは「初めて音声認識字幕を見る人がいる」ときのマイナスイメージを避けること、つまり「成功体験」を重視した運用です。音声認識や自動翻訳と言う結果が不確定な技術はこの成功体験が重要で、その先の採用や運用のモチベーションに大きく影響をしてきます。

もし対外的にUDトークを使用するときは、2つの運用を参考にしてみてください。

(もちろん最終的には無人で自動で高精度で動かせるのが理想ですが、それまでは3は見かけたらアドバイスをしてあげましょう…)

【トピック】UDトークを上手に使うための3つのポイント

「どうやったらUDトークを上手に使えるの?」と言う質問、たくさんいただきます。同じアプリなのに「すごくよかった!」とか「まだまだぜんぜんダメだ…」とか、これだけ評価が分かれるアプリも珍しいかもしれません。こちらとしてはこの両極端の評価がさらに「どっちなの?!」と言う探究心をあおってみなさんで考えてくださってるのでそれもまた面白いかなと思っています。

それで評価が真っ二つに分かれるのはズバリ「使い方」なのです。UDトークは使い方一つで両極端に評価が別れてしまうくらい人による運用に依存した「道具」です。うまく使用する方法を3つ挙げてみたいと思います。


1.口を近づけて話す

音声認識の精度は9割がたこれに依存すると言ってもいいと思います。「音をきれいに取る」とも言いかえれます。つまり「スマホと口を近づけて話す」これがポイントです。音源(口)とマイク(スマホ)が離れている状態では音声認識はうまくできません。また音響設備と接続して使用しているときも「マイクと口を近づけて話す」がポイントです。ハンドマイクなどで行っているときは無意識に持って話すのでとてもいい結果が得られます。ただし、いくら音響設備から音をとったとしても集音マイクとか床に置くバウンダリーマイクなどでは音声認識は難しいケースが多いです。

【参考】
【ヒント】UDトークを音響設備に接続して使用する


2.単語登録をする

2つ目に「編集する」が来なくて意外と思った方も多いかもしれませんが、「口を近づけて話す」がしっかりとできている場合、単語登録をきちんと行うことで多少誤認識はありつつもかなり正しく出てきます。音声認識はただの機械なので「登録されていない単語は絶対にでません」です。なので単語登録をしないで運用するということは基本「ありえません」。大体の評価が低いところは単語登録をしていないケースがほとんどです。「固有名詞が出ないだけ」と考えていませんか?固有名詞がでないということはその前後の文脈における音声認識もできないことになります。最低限「名前」「組織名」「製品名」などは登録しておかないといけません。

【参考】
ウェブで単語登録する(単語登録アカウントの作成)


3.編集をする

1と2ができている状態であれば編集者の負担というのはかなり低くなります。運用例だとスマートフォンで編集をしても十分追いつけることも確認しています。「編集が大変!」「こんなの追いつかない」とよく聞きますが、それは1と2がやられてないケースで起きているのがほとんどです。編集はある程度コツはあります。例えば漢字かな変換は諦めてカタカナやひらがなで修正をしてしまうとか、聞き逃した単語があるときは「***」と「そこに何かがあったけどわからない」と言う修正をすることもあります。つまりリアルタイム字幕ときは「修正する」ことが目的ではなく「伝達する」ことが目的となります。そう考えると修正者の方向性も自ずと見えてくるのではないかと思います。


ぜひ今ちょっとうまく運用できていないなと感じている方はこの3つの点を見直してみてください。また参加したイベント等でうまく使えてないなと言うのを見かけたときはぜひこの3つの点を主催者に遠慮なく伝えてみてください。

アメディアフェア in 練馬

アメディアフェア in 練馬にお越しいただきありがとうございました!

今回Shamrock Recordsのブースには長谷川貞夫さんをお迎えしてご自身の開発「ヘレンケラーシステムプロジェクト」を発表していただきました。はい、UDトークは視覚障害者の方がたくさんいらっしゃるこの展示会には不向き、強力なゲストでブースはいつも満員でした!

じゃUDとーくは?と言うと、別室で行われていた4つのセミナーの全てにリアルタイム字幕をつけていました。もちろんQRコードを発行してお手元でもみれるように。そしてブースではZOOMと併用して「字幕付き生中継」を行っていました。これは説明すると「そんなことがこんな簡単にできるのか!」とみなさん驚かれてました。


練馬開催でかなり交通の便が良くなったのか例年よりも来場者は多かったとのことです。アメディアさんは練馬区を代表する福祉機器の会社さんで、全盲の社長の望月さんにみなさん会いに来たようでなんども「望月さんどこに行ったかしらない?」と尋ねられました。あとうちのブースが入り口付近で来場された方がたくさん長谷川さんに挨拶して行かれたのも面白かったですw

こちらのヘレンケラーシステム、今度はCode for Nerimaのブースで2月2日の「つながるフェスタ」で展示をいたします。コミュニケーション手段として障害を超えた面白いアイデアなのでぜひ皆さんに知っていただきたいと思いました。

ありがとうございました!

【シェア】東京都練馬区の「第2次みどりの風吹くまちビジョン」、アクションプランにUDトークの活用案が組み込まれました!

東京都練馬区の「第2次みどりの風吹くまちビジョン」、アクションプランにUDトークの活用案が組み込まれました!

みなさんご存知のとおりUDトークは東京都練馬区で開発されております(笑)。もちろん東京都練馬区でもUDトークは正式に導入され、Code for Nerimaと言う区民団体により区民協働のツールとしてもイベントで活用されております。

この度「第2次みどりの風吹くまちビジョン」のアクションプラン(戦略計画)の一部にUDトークの活用が組み込まれました。

戦略計画 21 窓口から区役所を変えるの「3 案内が正確・迅速に行われます」の一部からの引用です。

ーーー
高齢者、障害者、外国人の皆さんなどへの案内に、音声文字表示・翻訳の機能をもつ音声認識アプリ(UDトーク)の活用を進めます。
ーーー

「高齢者、障害者、外国人」と明記し、UDトークと言う名称がアクションプランに記載されることは練馬区の事業者としてこれほど嬉しいことはありません。これからも練馬区に貢献していきたいと思います。

ぜひ他自治体の方も参考になさってください。この件についてのお問い合わせは練馬区まで!

■戦略計画 21 窓口から区役所を変える
https://www.city.nerima.tokyo.jp/kusei/keikaku/vision2/visonap20181210.files/v2ap-s21.pdf

■練馬区報
https://www.city.nerima.tokyo.jp/kusei/koho/kuho/201812/20181206165152711.files/1211_all_sp_1-4.pdf

■第2次みどりの風吹くまちビジョン アクションプラン[戦略計画](素案)
https://www.city.nerima.tokyo.jp/kusei/keikaku/vision2/visonap20181210.html

SEMICON Japanセミナーステージ(TechSTAGE)のすべてのセッションでリアルタイム字幕を提供します!

セミナーステージ(TechSTAGE)のすべてのセッションでリアルタイム字幕を提供します!
SEMICON Japan、日本最大級のエレクトロニクス製造サプライチェーンの国際展示会です。こちらの3つのステージでUDトークによるリアルタイム字幕をアクセシビリティサービスとして提供いたします。

お手元のスマホやタブレットへ配信します。誤認識の編集は今回行いませんが、単語登録を事前にきちんと行っているので内容は把握しやすくなっていると思います。これについては各ご意見あると思いますのでぜひ参加してどうだったかをシェアしていただけるとありがたいです。

こういう「すべてのセッションに自動字幕」というのが展示会では増えてきました。そしてもう来年にはあたりまえになっていく手応えは感じています。

ちなみに今回UDトークは協賛という形で関わっております。こうしてウェブページにロゴなど配置していただけるだけでOKですので、ぜひお問い合わせください2〜3ヶ月前からご提案いただけると良いかと思います。

■SEMICO Japan
http://www.semiconjapan.org/jp/

■TechSTAGE
http://www.semiconjapan.org/jp/programs/techstage

■UDトークについて
http://www.semiconjapan.org/jp/UDTalk