カテゴリー別アーカイブ: トピック

「話すこと・聞くこと」の授業パーフェクトガイド

「話すこと・聞くこと」の授業パーフェクトガイド 編著:長谷浩也(はせひろなり)

教育関係者必読の本が出版されました。実は去年からこちらの本の執筆でUDトークのアカウントを提供させていただいてまして、この度めでたく出版の運びとなりました。

Amazonはこちら
https://www.amazon.co.jp/dp/4182887158

この本のチャプター3:合意形成能力を育む!「話し合い」指導のアイデア、でUDトークを4ページに渡って取り上げていただいています。話し合いを振り返るときに黒板に全部書くのは大変。授業の時間も限られています。そこでUDトークを使って会話を可視化。しかもUDトークの学年別に漢字の表記を切替えれることで小学校の教育に最適です。著者の長谷さんも「音声認識アプリでこの機能があるのはUDトークしかない」と絶賛していただきました。

いま「字幕」は「聴こえない子達への福祉のサポート手段」から「一歩進んだ教育ツール」として大きく扱いが変わってきています。UDトークの問い合わせにも視覚優位で耳よりも目で見たほうが把握しやすいお子さんへの学習補助などで使いたいというのが増えてきています。

教育機関でのご利用は無料アプリではなく「教育機関向けプラン」を導入していただくように利用規約で決まっていますが、先生たちで実際にこの本を読んでお試しいただくくらいならOKですので、ぜひ取り組んでみてください。

自治体や教育委員会でプレミアムプランを導入して管轄校全部で使えるようにするのがオススメです(笑)

教育関係はこうした本が出ると大きくスタンダードが変わっていくと思っています。これからが楽しみです!

GoogleとAmiVoice、音声認識の特徴

現在コンパクトプランと法人向けプランでは日本語の音声認識エンジンをAmiVoiceとGoogleで選択してご利用いただけるようになっております。どの認識エンジンも精度が上がってきました。そうなるとどういった基準で使い分ければいいのか?ということろが課題となってきます。

そんな使用の際の基準を考えてみました。

AmiVoice Google
単語登録
句読点挿入
「えーと」などのカット
読みの表示
発音のカバー率
雑音環境
編集のしやすさ

単語登録、句読点挿入、「えーと」などのカット

このあたりは講演などのリアルタイム字幕を作成するときには必須の機能となりますので、まずきちんと音を取れる環境ではAmiVoiceを選択したほうが良いでしょう。Googleを選択する理由はないと思います。

読みの表示

実は読みの表示は音声認識エンジンの機能です。AmiVoiceの場合は認識結果に読みが含まれているのでそのとおりに表示することができます。Googleの場合は音声認識の結果にあとから読みを機会的につけているため喋っていない読みがでることがあります。

発音のカバー率

Googleは実はそれほど喋った内容をそのまま出す処理を行っておりません。入ってきた音声に対して一番近い文章を出す方を優先しています。それとは反対にAmiVoiceは入ってきた音声に対してどういう結果があるかを優先します。その結果、Googleの場合は入力された音声が曖昧でもそれなりに正しいものを(多少喋ってないことが付加されたようになったり)出してきます。さらに雑音とみなすとまったく結果が出ないこともあります。

入力音声に対する結果を優先<出力する文章の正しさを優先

ということになります。ですので、UDトークの使用環境で言うと難聴者の方の発話や、まだ日本語を文法的にきちんと話せない外国人の発話に強いことになります。事実、この機能を提供したあとに、企業で働く難聴者の方がGoogleに切り替えたことにより「いままでリスピーク(復唱)をしてもらっていたのが、会議で自分で発言ができるようになった」と報告を受けています。

雑音環境

これは上記のカバー率によってくるのですが、雑音環境でも同じことが言えます。AmiVoiceは「きちんと入力された音声」に対しての精度を上げるためにチューニングをしています。逆にGoogleはもともと検索エンジンへの入力で使われる音声認識なのでとにかく雑音に強い側面があります。居酒屋やパーティーなどで筆談や通訳との併用で活用するには良いと思います。

編集のしやすさ

これはUDトークの機能になりますが、UDトークは喋り終わる前でも小刻みに認識結果が確定したところから編集ができますが、Googleは話し終わるまで編集することができません。短い発話を繰り替えすような会話環境なら良いですが、やはり講演などではAmiVoiceで運用するのがいいと思います。

まとめ

こうやって列挙すると講演等でしっかりと環境を整えて運用をするケースではGoogleを使う理由はあまりないですが、喋る人が自分で選ぶ(特に難聴者の方が使うとき)とすごく活用の幅が広がるのではないかと思います。

こちらはAmiVoiceでの結果になります。「、」が入っているのとAmiVoice、Google、UDトークにきちんと読みがなが入っています。単語登録がされている結果でもあります。スマホに向かってきちんと話したので一回でこの結果を出すことができました。

こちら、Googleでの結果になります。文末の「。」はUDトークの方で挿入しているものですので、音声認識自体では句読点は出されていません。当然amivoiceやgoogleなどには読みは振られていません。「短い髪は」は「みじかいはつわ」の誤認識ですが、読める文章に近づけているのがわかります。ちなみに「は」とか「が」も言い忘れたところに挿入されたりしています。もっとシビアな環境で試してみたいですね。

こちら、一般の方にはコンパクトプランと言う形式で提供しておりますが、有料のアドオンとなります。もし難聴者の方でまず試したい方がいましたらSmilingual(スマイリンガル)をインストールしてみてください。こちらもGoogleで実装してますので、自分の声の認識が認識しやすいかどうかを試してアドオンを購入されるといいと思います。

「選べる」ということはアプリの機能としてとても重要です。UDトークは

  • 音声認識エンジンの選択
  • 翻訳エンジンの選択

ができる数少ないアプリでもありますので、ぜひいろいろ試していただき自分にとって最適な使い方を見つけていただけると幸いです。

iOS版 ver.105、Android版 ver.76をリリースしました

iOS版 ver.105、Android版 ver.76をリリースしました。今回は大きなバージョンアップが含まれています。

1.日本語から英語への翻訳エンジンを選べるように

UDトークは日本語から英語への翻訳エンジンは高電社の「翻訳クラウド」、それ以外はGoogle翻訳を採用しておりました。やはり日本語の言い回しなどは日本のメーカーが強いと言う理由でしたが最近Google翻訳が、特に長い文章で行った時にすごく精度が上がってきたのでこれを選択できるようにして好みで使っていただけるようになりました。この2つのエンジンの違いは「手前味噌ではございますが」を認識させると面白い結果になります。「メニュー>トーク設定」で変更ができます。

2.日本語の音声認識エンジンを選べるように

法人向けプランとコンパクトプランで日本語の音声認識エンジンをAmiVoiceとGoogleで選択できるようにしました。最近Googleの無料アプリが話題なのと、Googleの日本語もだいぶ良くなってきたのでUDトークでもGoogle音声認識が使えるように実装してみました。AmiVoiceとの違いですが、認識率はそれほど変わらず、AmiVoiceのほうが句読点がしっかり出たり、単語登録もできたりなどアドバンテージがあります。Googleは雑音や曖昧さに強い傾向はありますが。AmiVoiceは何が音があるところは出す、Googleは認識できないところは何も出さない、と言う違いがあります。法人向けプランとコンパクトプランをご利用の方は管理ツールで設定の上、「メニュー>トーク設定」で変更ができます。

3.サブディスプレイ(プロジェクタ出力)で画面上部に時計とタイトルを表示

サブディスプレイと言う言い方でプロジェクタへ別画面での出力をサポートしていますが、そこの画面に設定で時間とタイトルを表示できるようにしました(いま長いタイトルは末尾がトリミングされてしまうため現在調整をしております)。時計があると動作しているのもわかるのでぜひご一度設定してみてください。

4.iOS版、ver.103とver.104の不具合を修正

両バージョンであったプロジェクタ出力の致命的な不具合を修正しました。必ずバージョンアップしてください。

国際福祉機器展2019出展

9月25〜26日に開催された国際福祉機器展。今年も2000枚以上のチラシがなくなるなど多くの方にブースにお立ち寄りいただきました!

思えば去年くらいまではUDトークのブースには多くの聴覚障害者支援での課題を抱える方がいらっしゃってましたが、去年あたりから変わり始め今年はほとんどそういう方はいらっしゃいませんでした。ではどういう方がいらっしゃったかと言うと、外国人対応での課題を抱える方や外国人です。

つまりUDトークは多言語コミュニケーションの課題を解決刷るアプリに変わりつつあるのです。いま日本の福祉は多くの現場に外国人の方たちが従事しています。そこでのコミュニケーションにUDトークのような翻訳アプリを活用できないだろうかと。

ここ最近の翻訳精度の向上は目をみはるものがあります。中国、台湾、香港、フィリピン、タイ、マレーシアなどの方がいらっしゃいましたが、UDトークとSmilingualでなにも問題なく対応です。向こうも予め翻訳機や翻訳アプリを持ってらっしゃる方もいらっしゃいました。

福祉の課題が変わりつつあるなかでもUDトークは聴覚障害者支援だけではない「多言語コミュニケーション」に軸をおいているので、むしろいますごく自然に紹介ができます。

事前にお知らせしておいた新型AI搭載マイク「ピアボイス」も良かったです。この雑音下で離れたところからでも認識する精度はUDトークよくご存知のかたほど驚いていました。もうすぐ販売しますのでお待ち下さい。

それではみなさん、また来年お会いしましょう!

【運用レポート】シオノギ製薬社内で全従業員向けイベント

もうベテランユーザーとも言えるシオノギ製薬さんから運用レポートが届きました。社内の全社員向けのイベントで活用されたそうです。聴覚障害者対応と多言語対応を含めてコミュニケーションバリアフリープロジェクトとして動いているのはとてもいいですね!

引き続きご活用ください!


ーーー

【実施したこと】
7月31日(水)、シオノギ製薬社内で全従業員向けイベントとして、UDトークを使用しました。

【イベントでのUDトーク内容】
イベントには米国や中国からもグループ社員が参加したため、UDトークで多言語表示として、壁に投影、その他、参加者の手元でUDトークを見られるように、iPadを数台用意しました。

工夫した点として、コミュニケーションバリアフリープロジェクトメンバーだけでなく、イベント主催部署からもスタッフを募集し、合計5名で修正タイピング対応しました。

スタッフは原稿を見ながら即座に修正タイピングし、同時に専門用語をリアルタイムで単語登録をします。

全員初心者の社内従業員によるボランティアでしたが、シオノギ自らバリアフリー対応を実施したイベントでした。

UDトークのホームページに自動翻訳の機能を追加しました

UDトークのホームページに自動翻訳の機能を追加しました。
Google翻訳を使ってページを自動的に多数の言語に翻訳します。

今後はたくさんの方に自動翻訳で読んでいただくため、自動翻訳されやすい日本語の書き方をしてコンテンツを提供していきたいと思います。

自動翻訳に完璧を求めるのではなく、原文をわかりやすく書くことで英語だけではなくたくさんの言語の方たちにUDトークのことが伝わります。多くの人に伝わる手段として、これからも実践していきたいと思います。

【トピック】インタビュー全文掲載「松本江理」さん

先日練馬区と板橋区のタウン誌Kacceに掲載された時にインタビューに回答していただいた練馬区にお住まいの松本さん。記事では超要約でしたが、インタビューにすごくしっかりと回答していただいたのでご紹介とともに全文を掲載させていただきます。
実は松本さんはUDトークのレポートでもたびたび出てくくる「日本補助犬情報センター」のイベントでずっとUDトークを活用していただいています。聴導犬ユーザーでもあり聴導犬を広く知ってもらうための活動を精力的に行っています。

https://www.facebook.com/jsdrc.hojoken/

UDトークは普段の生活でもお使いなられてるし、開発者ともお友達です(笑)。そしてUDトークが開発されている東京都練馬区でCode for Nerimaとしても一緒に地域活動をされています。

練馬区の区民サービスをUDトークで利用されている方のインタビューなので、これから導入検討されているところは参考になるのではないかと思います。

松本さんは日常生活での主なコミュニケーション方法については

「口話。分かりづらいところは手話や指文字などを使う。」

と回答されています。この日常のコミュニケーション方法を前提に以下の回答を御覧ください。

松本さん、ありがとうございました!

ーーー
【UDコードを知ったきっかけは?】

きっかけを忘れてしまうくらい、かなり以前のことですが、CM字幕についての集まりに参加した際に「音声認識で文字化」というものがあることを知り、サイトを調べたところ、「UDトーク」だったというのが初めてだと思います。

【聴覚障害の方にとって、UDトークを一言で表現すると?】

神ツールです。耳から入るべき情報をそのまま「目から」入れることができるという、聴覚障害者にとっては理想の支援ツールだと思います。

【UDトークの特徴は?】

「聞こえない人」=「手話」という図式がありますが、実際は「手話」を母語としてたり、自由に扱えたりする聴覚障害者はほんの一部で、私のような中途失聴者や難聴者は手話よりも、文字情報を必要としていることが多いのです。
そこで、手話の代わりに、と用いられるのが筆談や要約筆記なのですが、どちらも話し言葉そのまま全文を書くことは難しいため、用件のみを端的に書いたり、要約したりすることになります。
そのやり方でも、内容や用件を伝えるだけであれば、問題ないかもしれません。けれども、UDトークであれば、話し手が、どんな言葉を、どんな言い回しを使って話しているか、ということも含め、聞こえている人が得ている情報により近い多くの情報を得ることができます。

ただ、使う時に音声認識をするためにマイク(スマホも含む)が必要で、話し手が変わるときはマイクの移動も必要になる。マイク外の音は拾わないため、話し手の変更にフレックスに対応するのが難しい時もあります。(手話通訳であれば一人二役的にできる)

【区役所や福祉事務所などの窓口で実際に利用したことがあればその頻度や使い勝手、感想などを教えてください(要望、職員の対応などについてでも結構です)】

今年の1月にたまたま福祉事務所の窓口でUDトークの配備を知り利用してから、区民事務所での手続きで数回、区役所の学事課?での手続き、など、公的窓口に行くときはほとんど利用しています。
福祉事務所で初めて利用したときは、配備されているタブレットとマイクを出してきてもらい、それを使いましたが、それ以外は、自分のスマホを相手に向けて話してもらって利用しています。
窓口に用意してあることはありがたいですが、出してくる手間もかかり、扱える職員の方も限られていたり、、ということから、1対1の場合は自分のスマホを出す方が早いからです。少なくとも窓口担当職員の方はスムーズに使えるように準備(練習)していてくださるとありがたいです。
また、私のように普段から活用していて、自分から言い出す場合は別として、来訪者がコミニケーションに支援が必要な場合(外国人を含め)は、もっと積極的に活用したらよいと思います。「書きます」と筆談をしても、手間がかかるだけでめんどくさくなり、結局、口話になってしまうことも多いですし、下手な(笑)外国語をしどろもどろで話して、うまく伝えられなかったり、行き違いが起きたりするくらいなら、便利なツールをスマートに使えばよいと思います。

【日常生活でUDトークを活用している例がありましたら教えてください】

・.公的窓口だけでなく、みどりの窓口や店舗、施設での受付や問い合わせなどの時。
・大学の通信学部のビデオスクーリングの受講(パソコンの映像で講義)
・子供の学校での式典・保護者会・懇談会・説明会、など。(音響設備につなげたり、Bluetoothマイクを使ったり)
・学びの場(防災・福祉・心理などの講演会や講習会)←用意されていない場合は、こちらから要望。
・メンバーになっている地域活動(町会・避難拠点連絡会など)の会合
・聴導犬(補助犬)啓発活動の講演時や打ち合わせなど。
・テレビ番組視聴(字幕なしの番組)

【UDトークの改善点や要望があれば教えてください】

1つのテーブルを数名で囲んでの打ち合わせの時に、今は、フリートークにならないよう気をつけつつ、1つのBluetoothマイクを回しながら話してもらっていますが、そのようなシチュエーション(小規模な会議的な)でもっとイージーに活用できる方法があるといいな、と思います。

 

【トピック】UDトークの使用発話数と翻訳文字数の公開

「UDトークってどれくらい使われているの?」と言う質問を良くいただきます。もちろんこちら側はそれを把握しているのですが、それを明確に数値として出すことはかなり勇気がいることでもあります。

UDトークは今回それをまとめて公開したいと考えました。

ただ、比較するための同様のデータがないのであくまでUDトークとしての規模とお考えください。

ではまず「発話数」からです。青色のグラフになります。

9月 5,610,337
10月 7,222,217
11月 6,970,232
12月 6,278,656
1月 5,782,187
2月 5,836,445
3月 6,139,569
4月 7,962,325
5月 7,369,689

単位は「発話」で、これは音声認識サーバーにリクエストが来た回数となります。言語は日本語のみです。この数字によると4月は日本語だけで800万回音声認識サーバーにリクエストが来たことになります。

平均値を出してみると

平日:30万発話
土日祝日:7〜8万発話

と出ました。UDトークがいかに仕事で使われているかがわかります。使用量は月ごとにばらつきはありますが、全体としては使用回数は増加していることもトレンドラインでわかります。

次に「翻訳文字数」です。緑色のグラフになります。こちらは翻訳の要求が来た文字数をカウントしてあります。

9月 5,053,584
10月 7,325,119
11月 5,900,205
12月 6,453,528
1月 5,342,648
2月 7,161,085
3月 6,886,970
4月 10,611,202
5月 8,001,052

こちらはすべての言語をカウントしてありますが、95%くらいは日本語から英語への翻訳となります。4月には1000万文字の翻訳要求があったことになります。こちらも全体の使用量としては増加しています。

2つを見比べると発話数が多い月と翻訳文字数が多い月は大体同じになっており、特に4月と10月にピークが多いのは節目で会議や研修やイベントが多いのではないかと推測します。

まだ細かいデータは出せるのですが、このデータから言えることは

「音声認識と自動翻訳は確実に使われている」

ということです。音声認識と自動翻訳はまだまだとは言われつつも数字としてはとても多くの人が使っており、使用量も増加しています。このトレンドは今後も続くことになるでしょう。

こちら、資料としてぜひ導入を検討されているところは一つの指標としてお使いください。

CSS Nite LP62「Webアクセシビリティの学校」特別授業

CSS Nite LP62「Webアクセシビリティの学校」特別授業でUDトークによる全文ログが採用されました。UDトークに手話通訳とウェブのアクセシビリティを勉強されてる方たちがアクセシビリティ対応がバッチリの環境で学ばれることはとても意義があると思います。

僭越ながら開発者の青木秀仁、オープニングで10分くらいお時間をいただきUDトークとアクセシビリティについてお話をさせていただきました。

全文ログを掲載いたします。

これからもCSS NiteではUDトークをご活用いただけることを期待しています。

ーーー
はい、皆さんこんにちは。
(こんにちは)
僕はこれでOKです(笑)。

今回植木さんから紹介があったようにですね、ちょっとアクセシビリティの会ということでやっぱり会自体がアクセシビリティじゃないと駄目だよねっていうことでこうやってUDトークというですね、アプリで協力をさせていただいております。

今早速僕が変なメガネをかけていると思ってる方は多分この中の半分以上はいると思うんですけれども、今僕目の前に字幕見えてます。
これメガネ型ディスプレイです。

こういったスクリーンに出すのも良いんですよね。でもそうするとやっぱり自分のペースで読めない。
今日皆さんの手元にQRコードが書いてあるチラシあると思います。それを使っていただけるとですねアプリをインストールして、手元で自分のペースで字幕を見ることができます。

このUDトークというアプリの使い方はそれがメインになります。やっぱり自分のペースで話を聞くスピードもですねそれぞれ読むスピードもそれによってまちまちです。その辺は個別に対応することもアクセシビリティの一つだと僕は考えています。はい。なので、皆さん今日はですね手元で字幕を見ていただけるといいのかなと思います。

そして今僕がかけてるメガネ型ディスプレイ、やっぱりスマートフォンで見たりとかですね。スクリーンで見たりとかって視線の移動が大変なんですよね。でもこのメガネ型ディスプレイを使うと、自分の視線上に常に字幕が入ってくるという。これ何かそんなにすごい近未来のものかと言われると、アマゾンで買えます。

これエプソンの製品なので、Amazonで買うことができます。なので今日これ開催中ずっと回しますので。はい。持って帰らないでくださいね。はい。僕どこかにいますんでね。はい。最後にチェックしますんで。はい。早速今ちょっとこれ回しちゃいます。
こういうのはですね自分から率先して体験した方がいいですよ。うん。自分の持論ですけれども、アクセシビリティとかって学ぶことよりも、やっぱり体験とか想像力なんですよね。実際何かメガネの前に字幕が出てくるっていうふうに聞いたらそんなもんかって思うかもしれませんけどもやっぱ実際に体験してみるとすごいこんなふうに見えるんだとか。うん。もっと自分ならこんな工夫をしてみるなとか。

そういうふうなことがやっぱり気づきがあるんですね。なので今日はこうやってアクセシビリティを学ぶ会でもありますけれども、ぜひ僕はですね、体験と想像力ってのを大事にしていただきたいなと思っています。はい。なので今日皆さんはまずリアルタイム字幕と手話通訳ということを今日体験しますよね。
こういうのがあるとすごい視覚的にいろんな情報が入ってきて、おそらく自らの理解もですね、すごく進んでいくんじゃないかなと思っています。はい。ぜひそのあたりもちょっと今日は意識してですね、学んでいただければいいのかなと思います。

今日はちょっと冒頭少し時間いただいたのでUDトークについてお話をさせていただきたいなと思います。
全てのセッションでリアルタイム字幕を提供しますということです。

じゃUDトークどういう目的で使われているのか。はい。まずですね、やっぱ聴覚障害をお持ちの方への対応ということは日本語をまず日本語字幕で出すこれはですね。もうかなり日本中にこのアプリ広がっておりまして、現時点で43万ダウンロード、あります。はい。全国で400以上の団体、自治体、教育機関、特に教育機関に至ってはですね120大学ぐらい入ってます。それだけ広まっているアプリでもあります。

そうですね。ちょっと統計上ですけれども、4月に1ヶ月間で800万発話ありました。
すごい使われてるんですね。その数が多いのかどうかさえ僕もわかりません。はい。
やっぱりこんだけ日本語がうまくできるとですね、やっぱり今度は外国人への対応できるんじゃないかというふうに皆さん想像するわけです。これが想像と経験ですよね。はい。自動翻訳皆さんもおそらくいろいろ使われていると思います。
最近かなり精度が上がってきましたよね。でも完璧じゃない。

多分アクセシビリティの目指すところそこなんですよね。完璧を目指しちゃったら、結局完璧っていうのはないんですよ。うん。やれるところまでやるどういうことをやったらいいのかっていうことをやっぱり考えながらやる必要があります外国人への対応なんかでも100%の翻訳を目指すよりは
こういうテクノロジーを使って6割7割、いろんな国の人に言葉が伝わればいいなというところでこういうアプリの活用が進んでいます。
後は議事録の作成ですね。今日の記録全て残ります。はい。きっと終わった後にこのログはどうするのかはいろいろアイディアはまたあるとは思うんですけども。はい。何時何分何秒に喋ったというログが全部取れます。

そうすると全文記録の作成もできれば、動画の字幕付なんかもできます。もう従来動画の字幕付けてすごい大変だった作業ですが、UDトーク使うとかなりスピーディーにできます。うまくやれば翌日に全て公開ということもできます。
しかもこのアプリが無料アプリというですね。なんという世の中でしょう。
と植木さんがいつもですね。何かあるたびに「お高いんでしょう?」とかっていうんですけども。
植木さんからお金を取ろうと思います(笑)。

お気づきのように、音声認識技術なんで、やっぱり間違いはあるんですね。これに関して突っ込んでも仕方がないわけです。だから、音声認識の間違ったところは今スタッフが編集しています。はい、別室でのんびりとお菓子でも食べながら修正したりしています。
はい。実はですね今日皆さんも修正に参加できます。うん。今スマートフォンで見てる方がいらっしゃったら、間違ったところがあったと思ったらタップしてみてください。そうすると修正ができます。なのでUDトークのコンセプトはみんなでつくる字幕、みんなでつくる記録です。
こういうのをオープンにしていくことで、いろんなアクセシビリティ可能性が生まれるかなと思っています。はい。なのでぜひ皆さん、全文記録の作成に参加してみてください。はい。きっとそのうち編集権限が取れなくて悔しい思いをすると思います。結構ねゲーム的な感じになってきます。

さらに今はメガネディスプレイもそうですけれどもARとかVR技術で情報支援を面白くできます。今手元で見ていらっしゃる方がいたらUDトークのメニューをタップしていただいて、シアターモードってのがあるんですね。そうするとカメラが起動して、カメラ越しにこう見ることができます。ちょっとね画面が小さいから見えないかもしれませんが、そうするとですねちょっと眼鏡をかけるには抵抗があるなみたいな方でもですねスマホをかざしてその自分の視線上に字幕を出すということができます。結構ね今年からこういう視覚系のアクセシビリティ、カメラを使ってARVR体験をするということはかなり主流になってくるんじゃないかなと思います。いち早く体験してみてください。

さらにこの応用でVRのゴーグルなんかを使ってやることもできます。なのでこういうUDトークとですね、VR機能を使って視覚情報をハックするみたいな感じのことを結構言ったりとかしております。でその辺りはですね、休憩時間とかでも受付にいろいろ用意しておこうかなと思ってますので興味がある方は僕を捕まえてください。多分どっかに居ますんで。

今いいましたけどもかなり今このアプリ広がっております。例えばですねテレビの前に字幕ができるとか本当にリアルタイムで議事録とったりとか、インタビューの記録を取ったりとかそういうこともできるようになります。やっぱりですね自動音声認識とか、自動翻訳の技術を手軽に使っていく、こういうのを当たり前にしていくことがですね、やっぱりアクセシビリティを考える上で土台を上げる役目になると思ってます。

なので、ぜひ皆さんも今日ですねUDトークをインストールして、こういうふうなイベントが開催できるということを知っていただいて、持ち帰っていただき、知っていただいて、持ち帰っていただき、自分たちが開催するイベントでもこういう方法でやっていただけたらいいんじゃないかなと思っております。

やっぱアクセシビリティの話をするんであればアクセシビリティに富んだ会を開催して、かつ、その後いろいろ記録に残して資産化していくことが大事だと思います。というわけで、ちょうどいい時間になりましたのでこれで終わりたいと思います今日は最後まで楽しんでいってください。