NTTは25日、インターネット経由で情報処理を行うクラウドコンピューティングとスマートフォン(多機能携帯電話)を組み合わせて、視覚障害者の外出を支援する歩行ガイドシステムを開発したことを明らかにした。2012年度から自治体などと実証実験を行い、数年後の実用化を目指す。
 歩行ガイドは、(1)利用者の眼鏡などに装着した超小型カメラに写る街の映像を、スマートフォンから高速無線通信でクラウドに常時送信(2)クラウド上の画像分析ソフトで、送信された画像を即座に解析(3)道路標識や障害物などを割り出し、音や声で利用者を誘導する―という仕組みだ。
 例えば、利用者の前方に段差やコーン標識、看板などがあれば、画像パターンでこれらを認識。効果音で迂回(うかい)が必要な工事の存在を知らせたり、音声で看板の表示内容を読み上げたりする。 
http://headlines.yahoo.co.jp/hl?a=20120225-00000062-jij-bus_all


この歩行ガイドシステムは、はたして実現できるだろうか。

コンセプト自体はとても良いと思う。
今私はメガネをかけている。もし世の中にメガネがなかったら、パソコンでキーを打つことも大変だったろう。このシステムが、視覚障害者の人が快適に日常生活を過ごせるための一歩になるかもしれない。

ただ、技術的な壁がかなり高いと思われる。
最も難しい部分は、街の映像をリアルタイム解析することだろう。当然ながら、街には色んな景色がある。その非定形な景色を全て解析出来るだろうか。また、歩行者を音声で誘導するならば、リアルタイムで画像処理を行わないといけない。サーバ処理、通信ネットワークなどは耐えられるだろうか。少しでも遅れたら事故に繋がる以上、処理の遅れは許されない。さらに、視覚障害者に使ってもらうなら、スマートフォンの入力はタッチパネルではなく音声認識を使うべきだろう。

しかし、これらの高い壁があるにせよ、実現する価値のあるシステムだと思う。この技術が確立されれば、他の利用シーンも十分考えられる。ただ、相当の研究費用が必要になるだろうから、ここは研究開発費が潤沢なNTTが挑戦する事は悪くないことだと思う。今後に期待したい。
 

追記
これディープラーニング(CNN)使えば高精度のやつ実現できるのでは?
自動運転と同じような技術でいける気がした。


IT・通信業 ブログランキングへ