Siriとかに話しかけるの恥ずかしくね?-人工知能搭載のミニバス運行開始

よく人工知能の話題で思うのが、”インターフェース”に関して。

「Siri」とかそうだけど、日本だと(海外も?)機械に話しかけるのって恥ずかしいというか、照れません?笑
一人でも照れるのに、公共の場だと話しかけるの余計辛いと思うんだけど、、、

自動運転車は、他に良いインターフェースがないし、外にも声が聞こえないので良いと思いますが。

テキストを書いて、人工知能にデータを入力するわけにもいかないし、なんかうまいやり方ないですかね?

感情とか、考えてることを直接入力するのが一つのゴールだと思うんだけど、すぐには無理かもしれないなぁ。

何が言いたいかって、要するにインターフェースが完璧に構築できれば、人工知能ってもっと普及するんじゃないかってことです。

人工知能そのものはいくら凄くても、使いにくかったら意味ないですからね。

以上、駄文失礼しました。

IBM Watsonを乗客インターフェイスに利用した電気ミニバス、Olliが運行開始へ

<概要>
IBMは自動運転分野に大々的に参入したことを明らかにした。
ただし実際に自動車を作るのではなく、自動運転に興味深い機能を提供する頭脳としての役割だ。

IBM Watsonの人工知能が電気自動車のOlliの乗客インターフェイスのベースとなる。
Olliは12人乗りのミニバスで、アリゾナの自動車メーカー、Local Motorsが開発した。

「WatsonとWatson IoTを含むIBMのテクノロジーはOlliの操縦やナビゲーションではなく、乗客の体験を改善することに用いられている。
Watsonによって乗客はバスと自然に意思疎通ができるようになる」と声明は述べている。


http://jp.techcrunch.com/2016/06/17/20160616ibms-watson-makes-a-move-into-self-driving-cars-with-olli-a-minibus-from-local-motors/

コメントを残す

メールアドレスが公開されることはありません。