本やらなんやらの感想置き場

ネタバレ感想やらなんやらを気ままに書いています。

機械による自動撮影と写真の未来─Google ClipsとParty-Shotに思うこと

f:id:spaceplace:20180201234000j:plain

はじめに

 撮影者は、写真を撮るために、シャッターを押す。撮影者は、基本的に観測者にとどまり、写真の中に写ることはありません。アナログカメラでも、デジタルカメラでも、スマホでもそれは変わりません。猿ですら、写真をとるために自分でシャッターを押すくらいですしね。*1

 ですが、写真を「撮る」方法はどんどん増えて行っています。例えば、センサーを仕掛けて一定の条件で写真を撮るようにしたり、動画から1コマを抜き出して写真を切り出したり。ですが、前者であれ後者であれ、どの時点で写真(あるいは写真の元になる動画)を撮るかは撮影者が決めていました。

 しかしながら、それすらも段々と覆されています。

機械による自動撮影について

SonyのParty-ShotとSmart Imaging Standについて

 まず、SonyのParty-Shotは、2009年に初めて発売されたものです。Party-Shotは、顔を認識し、ズームやパンをしながら自動で構図を決め、シャッターを切ることができます。*2約10年前に、Sonyがそんな機能を持つカメラアクセサリーを開発していたなんてびっくりですよね。


新型パーティショット IPT-DS2 & DSC-HX9V

 また、ソニーXperiaを使って同様の機能を達成するSmart Imaging Standというものを発売しています。

 ただ、これらは構図探しの段階では、かなりランダムにカメラを動かして人の顔を探して決めているようです。また、顔認識といっても誰の顔を認識するかは決められません。

Google Clipsについて

 次は、Googleが新しく開発したGoogle Clipsです。このGoogle Cliipsは、ちょうど先月前にアメリカで販売が開始されました。なお、他国での発売について、Googleは明言していないみたいですね。*3

 Google Clipsは、こんな形をしています。

https://storage.googleapis.com/gweb-uniblog-publish-prod/images/Google_Lens-hero_A9xor54.max-2800x2800.jpg A new angle on your favorite moments with Google Clips

 このGoogle Clipsは、人工知能によって、カメラによく映り込む人(撮影者や家族等)の顔を認識します。それらの人を対象に、Google Clips自体がタイミングを決めて撮影し7秒間の短い動画(clip)を作成します。(音声は記録されません。)持ち主はスマートフォンでその動画を取得することができ、また、その中の一場面を写真として切り出すこともできます。ただし、レンズ自体は単焦点なので、ズームをすることはありません。

 Google Clipsの詳細な説明は、以下のリンクか動画を参照してください。
速報:新発想カメラGoogle Clips発表。家族やペットを認識、自動で決定的瞬間を残すAIカメラマン - Engadget 日本版


Google Clips | A new way to capture and save moments

 ここで強調したいのが、動画から切り出す写真を決めるのは人間とはいえ、動画自体の撮影のタイミングは機械が決めるのであり、それは今までの撮影法と異なっているという点です。そして、自動撮影であるがゆえに、撮影者自身が、非常に簡単に写真に写ることができるのです。

 これらの機器は、撮影者が撮影のタイミング(と構図)を決めるという写真の原則を変える、非常に革新的なものであると言えるでしょう。

Prosthetic Photographerについて

※2018年3月6日追記

 この記事を当初書いた時に想像していたようなデバイスが登場しました。様々な写真を学習したニューラルネットワークが、良い構図となったときに人間にシャッターを押させるというもの。詳細は、以下の記事からご覧になれます。

www.gizmodo.jp

 技術の進歩って早いですね。電気ショックを流して人間にシャッターを押させると言うのが、研究段階ということもあって荒いですが、まさに写真の未来に一歩近づいているような気がしますね。

写真の未来について

 まず、機器の性能的な面で言えば、どんどん性能は高まっていくと考えられます。Party-Shotという前例がある以上、Googleもやろうと思えば、Google Clipsにも構図を決める機能を持たせることはできるでしょう。(物理的に構図を決めるのか、デジタルズームで構図をきめるのかは分かりませんが。)

 また、顔の認識能力や構図を決める能力は、両者も改善されていくと考えられます。前者については、ここ最近のDeep-Learningの発展を見ていれば明らかです。後者については、Googleの画像評価技術NIMAという実例が存在します。さらに、NIMAを応用すれば、人だけでなく、風景等についても自動撮影ができるようになると考えられます。

 このような機器の登場を受けて、写真の未来はどう変わっていくのでしょうか。短期的には、これらの機器を買って自動撮影を行おうとする人はそれほど多くないでしょう。いずれの機器であれ、追加でお金を払って機器を買ったうえで、わざわざ撮影するために機器を準備しようとする人は、多くないと思われますから。

 しかしながら、例えばGoogle Clipsと同様の機能が、スマートフォンのアプリとして開発されたら─普段持っているスマホを立てかけて、手軽に自動で撮影できるとなれば─多くの人が利用するようになると僕は考えます。また、スマホで動画を取るように動かすと、自動的に良い感じの1コマを写真を切り出してくれるアプリがでたら、かなり売れそうですね。

 なお、初めて本記事を執筆してから数ヶ月後、実際にそのような機能を持ったスマートフォンSharpから発売されました。*4本当にテクノロジーの進歩は早いですね。

 しかし、かっこよく/かわいく写真に写りたいという欲求がある以上、ポーズをとった上で、従来のようにシャッターを押して写真を撮るという行為はなくならないように思えます。ということで、両者が並存する未来が、近い将来登場するのではないのかと、勝手に想像しています。

 次に、人以外の写真を撮るということについて考えてみると、特定のものにカメラを向けるだけで上手に写真を撮るアプリが開発されれば、それを利用する人は少なくないのではないかと僕は思います。誰だって、上手に写真を撮りたいものですしね。

 しかしながら、趣味あるいは職業として写真を撮っている方は、こういう自動撮影はあまり積極的に使わないのではないでしょうか。理由は以下の3つです。

①自動撮影は(おそらく)おもしろくないため
 プロであれアマチュアであれ、写真を続けている理由の1つは、根本的に写真を「撮る」ことが好きだということがあるように思います。そういうような人々が、単にカメラを設置するだけで満足するとはとても思えません。

②自動撮影では個性を出せないため
 趣味で写真を撮る場合、自分だけしか取れない写真を撮りたいというのが一つの欲求となるところ、機械で自動撮影しても、同欲求は満たされません。また、プロとしても、個性のない写真では、写真家としての個性を発揮するのは難しそうです。そもそも、人工知能で美しい写真を決めるにしても、人間を基準とした教師データが必要となるはずなので、新しい表現を作ることは難しそうですね。

 ただ、カメラ台数や配置方法等では、今までになかった表現が可能になるかもしれません。

③機器への信頼性に問題があるため
 自動で写真を撮ってもらえるのは確かに楽です。しかし、人工知能を用いて撮影する以上は、その仕組みがブラックボックス化するおそれが多分にあります。そのような作動原理がわからず100パーセント信頼できないものに、貴重なシャッターチャンスを任せるとも思えません。

 以上のように考えてみると、機械の自動撮影によって結構写真を撮ると言う行為の一部が、自動撮影に置き換わっていくように思います。それが、自動的にシャッターを押すことなのか、動画の中から自動的に良い1コマを切り出すことなのかはわかりませんが。

 ただ、写真を趣味/仕事とするような人が、自動撮影を多用することは、それほどなさそうな気がします。

関連記事: spaceplace.hatenablog.jp