オースティン6日目。14日のレポートです。
いよいよ最終日。朝は涼しいですが快晴で日差しは強めです。
昨日までイベントをしていたところが片付け中だったり、
普通のお店だったところがイベントスペースに変わっていたりします。
今日から始まるGoogleの展示があったので行ってみました。
映画「Wonder Woman」のトレイラー映像を大画面で観れる風のVRです。
実際体験しましたが映画館にいるような感じでした。
ここでは「Google Daydream」が使われています。
https://vr.google.com/daydream/
スマホを装着するタイプのVRゴーグルはお手軽ですが再生中にアプリを操作する方法がなく
「Cardboard」のようにスマホの画面をタッチするボタンを用意したり、視点を合わせて
コントロールしてもらうなどユーザにとって不便なインタフェースでした。
Daydreamではリモコンが付属していてでマウスのように操作できるので
再生中にゴーグルを操作する必要もなく視聴しながら動画の切り替えなども簡単できました。
VIVEのようなゲームコントローラーと比較するとできることは少ないと思いますが、
360°動画を視聴するには十分かなと思います。
体験できるものは以上ですが奥にデコCardboardを作成する場所がありました。
「Google fiber」の建物なのでデモ用の端末が設置されていました。
壁にさりげなく「NEST」が設置してありました。初めてみましたが小さくてカッコいい。。
お昼頃に外を歩いていたら屋外ステージでライブが行われていました。
これだけ見たら小さな野外フェスみたいですが、
ステージの側になぜかビデオゲームが設置されていました。
次にIBMの展示へ行って来ました。
中に入るとテーマごとに展示が分かれています。
「ENGAGING」「SECURE」「PERSONAL」「HEALTHIER」とそれ以外と言う感じです。
こちらは「Watson Beat」の展示でムードを選ぶと自動選曲してくれるというデモです。
こちらも同じく「Watson Beat」でピアノを演奏するとそれに合わせて自動作曲すると言うデモです。
(ピアノが弾けないのでちゃんと認識してくれたかは不明ですが。。)
「Watson Beat」はWatsonの頭脳と音楽を組み合わせて何か面白いことをやってみようという試みでまだ一般には未公開だそうです。
次は「HEALTHIER」から。椅子が並べてある展示がありました。
こちらはセンサーによって家の中のソファやテーブルなどの状態を把握して、
何かに役立てようと言う試みのようです。
おじいちゃんが寝ているかどうかという状態を見るみたいなデモもありました。
「TJ Bot」は組み立て式のロボットで中にRaspberry Piが入っています。
テキストを読み上げたりWatsonのSpeech to Textと繋いで音声認識したり
Watsonのサービスを利用するインタフェースとすることを想定しているようです。
https://www.ibm.com/ibm/responsibility/initiatives/activitykits/tjbot/
他にもセキュリティやパーソナライズをテーマにした展示もありました。
全体的に専門性の高い内容で非常に面白かったです。
最後にYoutubeの展示を見に行って来ました。
ここにもDaydreamのデモがありました。
ボタンを押すと過去に流行った動画が流れると言うもの?だと思います。
(地域が違うので見覚えのない動画が多かったですが。。)
こちらは球体のディスプレイです。動きは少ないのですが動画が流れています。
360°動画の再生に使えるのかな?動画が物理的に立体になっていると言うのは面白いですね。
レポートは以上になります。
この1週間は毎日違うものが見れてとても刺激になりました!
また来年参加する方に少しでも参考になると幸いです。
この記事を書いた人
最近書いた記事
- 2021.12.10React NativeでWallet風UIを実装する
- 2018.11.19Elasticsearchで簡単な検索とscoreを調整する方法
- 2018.10.05ECSをEC2からFargateに切り替える際の注意点
- 2018.09.12AKB48グループ映像倉庫のWeb版をリリースしました