本日初めに発表された新しい Galaxy A7 (2018) は、トリプル背面カメラを搭載した最初の Samsung スマートフォンであるという特徴を持っています。サムスンが、これまでファーウェイのP20 ProやOppo R17 Proなどのフラッグシップデバイスにしか提供されていなかったこのような独特の機能を詰め込んだミッドレンジのスマートフォンを発売することは非常に驚くべきことです。
しかし、Galaxy A7のトリプル背面カメラは、SamsungのGalaxy Aシリーズデバイスの販売を回復するための単なるマーケティング戦略なのでしょうか?まあ、確かなことはできません。しかし、トリプル背面カメラがどのように画像出力を向上させることができるのか疑問に思っている場合は、ハードウェアに直接アクセスして、それがどのように機能するかを見てみましょう。
プライマリカメラ
Galaxy A7 のイメージング ハードウェアには、F/1.7 絞りの 24MP RGB センサーが 搭載されており、レンズの垂直スタックの中央に位置します。その上には F/2.2 絞りを備えた 5MP 深度センサー があり、F/2.4 絞りと 120 度の視野を備え た 8MP 広角レンズ が底部にあります。一方、HuaweiのP20 Proには、40MP RGBセンサー、8MP望遠レンズ、20MPモノクロレンズが搭載されています。
これらのセンサーを実際に応用すると、Galaxy A7 の 24MP RGB センサーはメイン カメラとして機能し、特に低解像度の最終画像のシーンから詳細を抽出するためのピクセル ビニング (4 つのピクセルを 1 つに結合する) 機能も備えています。 -光の状態。
AIシーンオプティマイザー
メインカメラには、Galaxy Note 9で初めて搭載された シーンオプティマイザー 機能が搭載されています。これにより、カメラはAIアルゴリズムを使用してシーンを自動的に認識し、シーンに合わせてホワイトバランス、露出、コントラスト、明るさの値などのカメラ設定を調整できます。 。現在、この機能は食べ物、風景、ストリートビュー、夜景、動物、ビーチなどを含む 19 のシーンを識別できます。
Note 9 の機能のレビューで見てきたように、Scene Optimizer は全体的な画質に関して大きな違いをもたらします。
セカンダリカメラ
5MP (F/2.2) センサーはスタックの最上部にあり、シーン内の深度情報をキャプチャするために使用されます。カメラはビュー内のさまざまなオブジェクト間の距離を計算するため、前景と背景を分離し、ボケ ショットの被写界深度効果をより高めることができます。明らかに、SoC は深度の計算に役立ち、オブジェクトを目立たせるためにエッジにぼかし効果が適用されます。サムスンは、主力製品で見られるように、ユーザーがぼかしの強度を調整できるようにすることもできる。
モノクロセンサーはより多くの光を捉えることができるため、深度センシングに適していると主張することもできますが、高解像度の二次モノクロレンズは調達コストが高くつくため、通常はハイエンドデバイスで使用されます。
超広角カメラ
最後に、人間の目の通常の視野とほぼ同じ 120 度の視野を持つ 8MP (F/2.4) 超広角センサーがあります。つまり、紙の上では、Galaxy A7 の 8MP 超広角レンズを使用すると、視界にあるものすべてを撮影できます。
広角レンズは、グループショットや風景を撮影し、シーン全体を捉えるために画像をできるだけ広くしたい場合に役立ちます。 f/2.4 レンズは、広角ショットを撮影する場合、デュアル カメラ設定を備えたアッパーミッドレンジのデバイスの主力となっており、Galaxy A7 ユーザーには十分に役立ちます。
これで完了です。サムスンがこれまでに明らかにしたことを総合すると、Galaxy A7は実際に非常に優れたカメラを搭載している可能性があります。明らかに、やるべきテストはたくさんあります。まだ公式のカメラサンプルさえないので、現時点ではSamsungが仕様を発表しているだけであることは明らかです。このエキサイティングな新しい Samsung Galaxy A シリーズ スマートフォンの詳細をご覧ください。






![2021 年に Raspberry Pi Web サーバーをセットアップする方法 [ガイド]](https://i0.wp.com/pcmanabu.com/wp-content/uploads/2019/10/web-server-02-309x198.png?w=1200&resize=1200,0&ssl=1)


