2016年6月20日月曜日

カンヌライオンズ2016 2日目速報レポート


このエントリーをはてなブックマークに追加
Cannes Lions 2016 Day2です。今日は7つのセミナーに参加しました。本日も考察を交えて速報レポートをお送りします。

昨日の速報レポートで「ファクトに基づくストーリーテリングが大事」という内容を書いておきながら、朝一番から”Perception, Not Fact, Creates Reality”(生活者はファクトではなくリアリティで認知している!)というお題のセミナーに出くわしました。








ファクトとはプリミティブな具体的観念(例えば数式)であり、リアリティは生活者の心理にあるイメージということで、いわゆる存在論や認識論といった哲学的な話に近い感覚を覚えました。



確かに俯瞰してみれば、”テクノロジー”によって、ファクトとリアリティが混在し、お互いの距離がとても近づいているような気がします。例えば、花が壊れるなんてことはファクトとしてはあり得ませんが、CGによって花が壊れるといった表現が可能になり、それを違和感なく見ている私たちがいます。


デジカメによって切り取られた瞬間、望遠鏡によって見えなかったものが見えるといったように”テクノロジー”によって空間と時間の概念が圧縮されました。VRはその最たる例でしょう。知覚としてのリアリティをどうつくるか、それをブランディングやクリエイティブにどう活かしていくのかが大事な時代になりました。


では、ブランドのリアリティを生活者に感じてもらうための”テクノロジー”とは何でしょうか。今日においてそれはIoTでしょう。これまでインターネットによって人と人が繋がりました。IoTによって、これまで単体として存在していたモノとモノが繋がるようになりました。その数は2020年までに250億個と言われています。




IoTはマーケティング業界に3つの進化をもたらしました。1)products as a service(製品のサービス化), 2)ecosystem connected products(製品の生態系), 3)products as media(製品のメディア化)の3つです。


セミナーではそれぞれの事例が紹介されました。目の不自由なスイマー向けのスイミングキャップと、子供が水を楽しく飲むためのセンサー付き水筒の動画をご紹介します。

Blind Cap





Gululu the interactive bottle that keeps kids hydrated by Bowhead Technology







Interactive bottleは、そこまで必要なのかな?と微笑んでしまう事例ですが、モノとモノが結びつくことによって一人ひとりに提供するフィジカルなブランド体験のパーソナライズ化ができるようになりました。個人ごとに異なるリアリティを提供できるようになったのです。Internet of Meです。



生活者に目を向ければ、多様性(diversity)はますます広がっています。グローバルな観点でみればLGBT、多人種、異文化におけるマジョリティ、マイノリティがあります。もはやInside/Outsideの違いもなくなりつつある。





日本でも、よく考えれば、年代、性別、地域によって使う言葉も、メディア接触行動も、以前と比べれば多様性が広がっています。大人の方で#ootdを知らない人は多いでしょう。テレビや新聞はもとより、Webニュースさえ読まない若年層も増えています。価値観の多様化だけでなく言語やメディア接触行動が多様化している。IoTによってブランド体験がパーソナライズ化できるといっても、パーソナライズする数が増えているわけです。

多様な生活者に向けたフィジカルなブランド体験のパーソナライズ化をどう提供するのか。そういった中で、エージェンシーの取り組みも変わってきています。今日は博報堂と電通ラボの取り組みがセミナーで話されました。

博報堂は”Agency Beta”というコンセプトで、5つのベータチームによるシリコンバレー的なプロトタイプアプローチをお披露目しました。





博報堂ケトル社のニュートラルクリエイティブ(メディアマージンからフィービジネスへの転換)、QUANTUM社のR&D・新商品開発(R/GAのアクセラレーターに近い)、STEVE N' STEVEN社の映像プロデュース、アートディレクターがCEOに対してコンサルティングするチーム(IDEOに近い)、SIX社のデジタルクリエイティブ(楽曲DBを参照して歌詞が表示されるスピーカーをつくったり)の5つです。















Lyric Speaker - Japanese



Dentsu Lab Tokyo(電通ラボ)はミュージシャンBrian Eno氏のソロアルバム「The Ship」の映像を深層学習で生成。100年分の映像ImageNetを用いた教師データとして多層ニューラルネットワークの教師なし学習で出力(※注:登壇された電通ラボの木田氏と本日お話することができ、教師なし学習をやられているということで6/20 22:56に下線部分を修正しました。)。映像はあと1週間ほどで公開になるので現段階では詳細不明ですが、セミナーによると映像は人間の記憶の曖昧性を表現するようなものだそう。コチラのURLで公開するそうです。http://theship.ai/




ニューラルネットワークの教師あり/教師なし学習(supervised/unsupervised learning)で生み出されるクリエイティブは、今後かなり色々な場面で注目される気がします。個人的にかなり注目している”The Next Rembrandt”も同じ手法で絵画を制作しています。

The Next Rembrandt

これはオランダの画家レンブラント・ファン・レイン氏の過去作品を教師データとして、もし彼が生きていたらこんな絵を描くだろうと深層学習で制作したものです。本日発表されたLions Innovation、Promo&Activation、Directの3つで既にショートリスト入りしています。話題になるのは間違いないでしょう。明日からはいよいよ受賞作品が決まっていきます!

0 件のコメント:

コメントを投稿