スタパ齋藤の「スタパトロニクスMobile」
生成AIで一気に進化、ここ数年で俺的仕事撮影機材が落ち着いた件
2024年9月17日 00:00
ここ1~2年で急激に仕事のしかたが変わった俺。原稿執筆のしかたは変わっていないが、それに付随して発生する商品撮影のしかたが大きく変わった。具体的には、効率がよくなり撮影関連の仕事にかかる時間が大幅に短縮された。
それにはいろいろな要素が関わっている。ざっくり言うと、たぶん生成AIやAI系テクノロジーのおかげ、だと感じる。
たとえば撮影機材。
以前は本格的な照明機材やプロ指向のデジタル一眼カメラを使っていたが、それらを使う頻度が落ち、最近ではOMデジタルソリューションズのミラーレスカメラ「OM SYSTEM OM-5」とiPhoneのProシリーズばかり使うようになった。
OM-5のほうは軽くて高性能なので好んで使ってしまう。iPhone 15 Pro Maxは手軽で高画質なので多用する。両機とも画質的に仕事でも使えるレベルだと感じる。
これらで撮影するようになってから、照明機材も減った。以前はいわゆる「ストロボ」や撮影用大型LED照明を使っていた。だがストロボはすっかり使わなくなり、カメラに装着するクリップオンストロボも同様に使わなくなり、撮影用大型LED照明は希にしか使っていない。
わりと簡易的とも言えるカメラで商品撮影している。照明機材は、天井照明やデスクライト。俺の場合、商品撮影は20年以上やっており、いろいろな小技を獲得してきた。なので、そういったテキトーっぽい照明でもなんとかなったりする。
たとえばストロボを使うと、デバイス本体と、デバイスのLCDやLEDなどの発光部分を、どちらも適切な明るさで撮影できる。もちろん一度の撮影で、である。発光部とストロボの色温度の差が大きいと二度撮る必要が出たりするが、多くの場合は撮影後の補正でカバーできる。
だがストロボなしでも、三脚さえ使えば、同様のことができる。デバイス本体を1枚、発光部を1枚撮り、合成すればいいのだ。そういう特殊な被写体は多くないので、ストロボをセットアップするよりも複数枚撮って合成したほうが早い。ただし合成テクニックや素材として使える写真を撮る技術は必須だ。
俺の撮影時の様子を見せたら、「えっ……そんなことしちゃってんの?」と驚かれるかもしれない。
光源はデスクライト2本! レフ板なんか白い紙で十分! 写り込み防止も白いモノのエッジ際立たせも手や黒い紙でOK! 机上の空きスペースに被写体置いてパパッと撮ってザザッとレタッチして終了。商品撮影には別のモノとかケーブルがちょっと写り込んでいることも多いが、そういうのはPhotoshopさんがお消しになられる!
しかも、いまのカメラはコンピュテーショナルフォトグラフィーで高画質だし、いまのLEDデスクライトとかって色温度のバランスが良好で何年か前ほど赤ばかり強く写ることも減ったし、それに小物なら光源の光量もあまり必要ない(ストロボなどだとむしろ光量が多すぎて苦労する)し、それにWeb記事の写真の細部を凝視する読者が少ないっていうか「どこがどう動作してどう使うのか」とかがわかればOKな写真だし。そんなこんなで、撮影者として手の抜きドコロがよくわかった、みたいな?
あと、俺の画像レタッチテクニックがここ数年(とくにコロナ禍・生成AI登場時期)で自分でも意外なほど向上したこともひとつの要素だ。たぶんコロナ禍に生成AIの「なっちゃいない画像を手動校正」していたためで、雑なグラフィックのリアル度を大きく高められるようになった。
といったこともあり、最近、「レタッチ技術向上で撮影仕事の時短につながったけど……もしかしたらPhotoshopの基礎をちゃんと学んだらもっと時短になる?」と思い、初心者向けの入門書を購入した。↓こんなの。インプレスの本じゃなくてゴメンナサイ、インプレスブックスさん!
あと、撮影からレタッチまでのワークフローが固まったこと。以前はいろいろ欲張ってワークフローで使う機材やソフトウェアを選んでいた。テザー撮影に向くアプリとか、その後に写真を扱うフローとか。
だが現在は、ほぼすべての写真をiPhoneかiPadに取り込み、自動的にiCloud同期されたそれら写真をMac上でレタッチしている。これが最も効率的ってわけではなく、カメラの機種違いでテザー撮影環境を用意するような必要がなく、SD/microSDに記録できるほぼ全部のカメラで共通して使えるワークフローとなるからだ。
つまりワークフロー自体を工夫したり試したりする時間が不要になる。テザー撮影にはその場でピントを確認できるなどのメリットが多々あるが、俺の場合はかえって時短から遠のきがちなのでほとんどやめて、カメラの画面上でピントが合っているかなどを確認している。
で、カメラはOM-5とiPhone 15 Pro Max。俺の撮影・レタッチ技術は、カメラ選びや画像転送方法を考える時間・手間も省いたゼ!!! あーラク♪ ただし、高解像度・高画質が厳しめに要求される場合は、キヤノン「EOS 5Ds R」と「TS-E50mm F2.8L マクロ」や「TS-E24mm F3.5L II」を使ってテザー撮影している。
さておき、こういう効率的な変化は、俺の技術によるところもけっこーあるものの、生成AIに強く強く後押しされた部分が大きい。かな~り大きい。
Adobeの生成AI「Firefly」が仕事を肩代わりしまくり
仕事で画像生成AIを使っている。商品や猫を撮影した結果を、問題のない写真にするためにAdobe「Firefly」がスゲく役立っている。FireflyはWebアプリとしても利用できるが、俺が使っているのはPhotoshop内で機能する「生成塗りつぶし」(Fireflyとしてはちょっと古い)などの機能だ。
商品撮影でPhotoshop内Fireflyを使うと、たとえば背景紙などが要らなくなるケースがある。ある、っていうかスゲく多い。もうあの邪魔くせえ背景紙全部捨てるゼ! って気になっている俺だ。
たとえば小物の撮影。机の上でテキトーに撮っても、Photoshop内Fireflyの力で、なんかちゃんと環境を整えて撮ったみたいな写真に合成できる。
という感じで、「写ってりゃどうにかなる」的な商品撮影の時代が! みたいな?
この生成AIを使った時点でフェイク写真ではあるわけだが、AIを使わない場合も「どうせボトルだけ範囲選択して反転して背景を白とかに塗る」んだし。
そもそもコンピュテーショナルフォトグラフィーなカメラで撮った時点でフェイクだし。いやデジタルカメラ……いやいやフィルム式カメラで撮った時点もフェイクっていうか写真全部が現実のフェイクという考えに至る俺だ。つーか残せて再生できる映像は全部結局、現実のフェイクであり人が編み出したファンタジーだという考える俺なので、上の写真のようなフェイクなど全然気にならないのである。
あとですね、猫の連載記事があるんスけどね。ペトハピっていう媒体の「スタパ齋藤の猫がたり」という記事。猫目撃日記みたいな雰囲気になりつつあるがさておき、この記事内の写真にてAdobe「Firefly」が大役立ちである。
こういうコトができると、一瞬の出来事をギリギリでイイ感じに撮れたけど掲載が難しい写真でも、掲載可能なものへと変化させて使えるのだ。もちろんフェイク写真ではある。のだが、読者は猫写真観られてハッピーであり、少年は写真からプライバシーを侵害されることがなくなりハッピーであり、俺も写真使えてハッピーであって、とてもよいフェイク写真と言えよう。
余談だが、2枚目の猫の写真、2ショット写真だが、これにはオリジナルがある。背景には特徴的な建物が写っており、路上にもそういうモノが写っている。なので、それをそのまま媒体に掲載すると、建物所有者などに迷惑がかかる可能性がある。また、「この猫たちはあの建物の近くに現れるのだな」と悪辣な笑みを浮かべる悪人が悪さをする悪い可能性もあるので、こういうフェイク写真にすれば地域住民や猫の安全とプライバシーを守ることができる。
撮影機材、撮影技術、生成AIで、どのくらい時短?
俺の場合、仕事にかかる工数が毎度違う(取材とか屋外での試用とか試用期間がけっこう異なる)ため、単純に比較はできない。だが、とくに画像生成AIが「仕事で使えるレベル・クオリティ」になってからは、「仕事がラクになった」「仕事にかかる時間が減って遊んでいられる時間が増えた」と実感している。
たとえば少し前まで某ゲーム雑誌で小さなコラムを書いていた。そこにはコラムの内容を映像化したイメージを載せたりしていた。「こういうコトがある、こういうモノが欲しい、こんなのを想像する」みたいなイメージ画像だ。
ただそれは小さいコラムで、当然予算も限られていて、ちょっとしたイメージ画像のためにイラストレーターに発注するのは不可能。自分で描いたら……俺はマジメに描けばけっこう描けるヤツなのだが、それでは時間がかかり過ぎて採算が合わない。
そこで編集部サイドの許可を取り、そのイメージ画像をAI生成にしてみた。AI生成にはMidjourneyを使い、結局は「これはAIの生成物である」ということをバラしていたが、編集サイドには好評で、コラム内容としても充実した。
そして何よりも「こういうコラム書きたいけど……ビジュアル(写真類)を調達するの無理!」という障壁が消えまくって、俺的に非常に役立ったと感じた。文章のテーマなどを思いつくと同時に、「たぶんこのビジュアルなら生成できる」という後押しがあると、すっごーい勢いで仕事が片付く(ことが多い)。
それから、屋外でのイメージ写真撮影が非常にラクになった。これはiPhoneなどのスマートフォンの画質が高まり選べる画角も増えたことと、スマートフォンによる写真のほうが(コンピュテーショナルフォトグラフィーなので)圧倒的にダイナミックレンジが幅広いからだ。
数年前にe-bikeのロケ記事で、初日の出を自転車とともに撮りたい! ということになって、それにチャレンジ。初日の出をバックにすると手前の自転車がまっ黒に潰れてしまうことを知っていたので、自転車を照らす強力なライトを2つも用意した(サイクリング中の撮影なので「ここまでならギリギリ背負えるライト」という感じ)。
だがライトはまったく役に立たず。太陽光に対抗するにはこの程度のライトではダメなのだ、ということを思い知ったのだが、iPhoneで撮ってみたら……!?
仕事で、ロケでのイメージ写真撮影では、最近はますますスマートフォンが役立っている。スマートフォンの強力なコンピュテーショナルフォトグラフィーだと、見えているものがぜーんぶ良好な明るさと色で写ってくれて、「次回からミラーレスとか持ってくるのやめましょうか」「えっボクもうスマホだけにしてますけど!」みたいな状況が増えていたりする。
って感じで、いろいろ時短。効率化で省力化。俺の場合は、やはり生成AIのクオリティが上がったことと、スマートフォンの画質向上が大きい。
まだまだイロイロとダメな画像生成AIは、この先ダメじゃなくなるのか?
つい最近、プロの画家と最近のAIはどうなのか的な話をすべく会った。結局「画像生成AIはディテイル描写がほぼ全部雑」ということで意見が一致した。また「人間があまり注視しない部分はAIの雑さでも使えるが、注視する部分やよく見る部分はAI生成だということがすぐバレる」という点でも一致した。
画像生成AIは一般に普及し始めた頃からそうだったが、「ソレっぽくする」のは巧くて、そのレベルはどんどん高まっていて、「すごーくソレっぽい生成」をするようになったと感じる。ただ、そういう画像でも「ココは違うんじゃないの?」的に、ディテイルに違和感を覚えることが多い。
その画家は、作品制作の資料とするために衣服をAI生成させたそうだが、衣服の模様がいつの間にか立体物になっていたり、結び目やシワが有り得ない形状をしていたり、手や足の形がおかしかったり、違和感ばかり見えてきたという。最初は生成AIに期待したものの落胆し、「AI生成を使うより写真を撮って資料としたほうが早い」という結論に至ったそうだ。
こういう不正確な生成はずーっと続いている。また俺の場合、どんなに頑張ってプロンプトを入力しても、そのとおりになることはほぼなく、希望と完全に一致したイメージが生成されることはないだろうと感じている。「思い通りの生成がされた!」という人は、「これを思い通りの生成だということにしよう」と無意識的にか意識的にか、思い込んでいるのかもしれないが、人様のことなのでよくわからない。
イメージにかなり近いような気がする画像が生成されても、よーく見ると有り得ない形の建築物だったり、家具の構造だったり、人間の髪や手だったりする。でも全体的にソレっぽくてリアル。なので「へぇ~こんなりあるなのがAI生成されるんだー」と楽しくチョイ観できる感じ。
そういう感じの画像生成AIなので、前述のPhotoshopでの「生成塗りつぶし」などのAI生成機能は実用的でもある。
たとえば、壁やアスファルトの上に「消して欲しいもの」があるときに「生成塗りつぶし」を使うと、AIは壁やアスファルトを生成することが多い。見事に生成する。実用レベル。
いや、見事な生成に見えるのは、我々がいかに壁やアスファルトを注視していなかったかという証拠かもしれない。実際によーく見ると、ほかの位置の壁やアスファルトとAI生成では、質感がわりと異なる。でも写真のなかでそんな箇所に注目する人はほとんどいない。だからそういう箇所のAI生成は実用レベルと感じられるのだと思う。
一方で、Photoshopの「生成塗りつぶし」で「座っている人」をイスの上に生成させたりすると、「ほぼ使えない画像」ばかりを生成する。それは座っている人など我々人間が毎日のように見ていて、パッと見で本物かどうかわかるからだろう。「なにこの抽象絵画が混ざっちゃった座る人は……」みたいな?
Photoshopの「生成塗りつぶし」はAIモデルが一世代前とかのものなので、まだリアルな人や動物の生成は苦手のようだ。ただし、Photoshopベータ版では事情が違って、「生成塗りつぶし」でも最新AIモデルが使用でき、もっとリアルな人物が生成される。たとえば、最新のAIが使える(ベータ版ではない)Photoshopの「画像を生成」機能(メニューの「編集」→「画像を生成……」)を使うと、かなりリアルな生成となる。
上の合成結果は、AI生成の人物を範囲選択して写真の上に貼り、サイズや角度を調節し、人物の上にくる実写部分を別レイヤーで貼り付け、さらに人物が落とす影を別レイヤーで描いた。合成例レベルなので(慣れた人なら)5分くらいでできると思う。ともあれ、現在の画像生成AIを利用したグラフィック作成だと、こういう使いかたがもっとも効率的だと感じる。AIガチャを回し続けて完成品を求めるより、AIが使えそうなパーツを出したらあとは人間が仕上げる、みたいな?
Midjourneyが生成する顔は、最近のバージョンでは非常にリアルだ。しかし、よーく見ると「前髪のなかでピントが合っている数本と、ピントが合っていない数本がある」みたいなことに気付いたりする。
実際に写真を撮ったら、たぶん絶対そうは写らない被写界深度の違いを、AIは平気で生成しがちだ。しかし、その生成画像を見る人間が注目するのは、目や表情や皮膚の色のグラデーションとか湿り気とか、そういう箇所ばかり。前髪の被写界深度なんてほとんどの人が気にしないだろう。でも目や表情や肌の血色がリアルだと「うわスゲくリアル!」と驚いてしまう。
という感じで、まだまだそういうダメだったり不完全だったりする部分が多々ある画像生成AI。そういうダメさがかなりこの先まで残り続けるように思う。
ただ、AIによる画像生成が主流になっていって使われまくるようになると、人間がよく見る対象がAI画像生成ばかりという状況になるかもしれない。そういう状況が進むと、人間は「それっぽいもの」で問題ナシであり良くなっちゃうという気もする。逆に本物をそのままのように撮った写真を見て「なにこれ、気持ち悪くない?」と違和感を感じるようになるのかもしれない。
画像生成AIは一般にまだ使われ始めたばかりだ。この先どうなっていくか注視したい。また、そういう新しテクノロジーに触れられる時代に生きていることは、とてもエキサイティングで楽しいことだとも思う。生成AI使われまくり時代の電力事情がどうなっていくのかも気になるので、やっぱりまだしばらくはAIから目が離せない。
AIを凝視しつつ使いつつ、もっとラクになるようにAIを利用してゆきたいッ!!!