- Gemini API キーには無料で、クラウド課金を設定することなくアクセスできます。 Google はプロセスを簡単にしました。
- 現在、Google は、API 経由で使用できるテキスト モデルとテキスト アンド ビジョン モデルの両方の Gemini Pro モデルを提供しています。
- API を介して Gemini Pro のビジュアル モデルに画像をフィードし、コーディング例でそのマルチモーダル機能をチェックできます。
Gemini AI の発表後、Google は Gemini モデルの API アクセスをリリースしました。現在、同社はテキストのみのモデルやテキストとビジョンのモデルを含む Gemini Pro への API アクセスを提供しています。 Google はテキストのみのモデルを実行しているため、これまでのところ Bard にビジュアル機能を追加していないため、これは興味深いリリースです。この API キーを使用すると、最終的に、Gemini のマルチモーダル機能をコンピューター上でローカルにすぐにテストできるようになります。その点を踏まえて、このガイドで Gemini API にアクセスして使用する方法を学びましょう。
注: Google Gemini API キーは、現時点ではテキスト モデルとビジョン モデルの両方で無料です。来年初めの一般公開までは無料となります。そのため、Google Cloud の請求を設定したり、費用を負担したりすることなく、1 分あたり最大 60 件のリクエストを送信できます。
コンピューターに Python と Pip をセットアップする
- 私たちのガイドに進み、Pip とともに Python を PC または Mac にインストールしてください。 Python 3.9 以降のバージョンをインストールする必要があります。
- Linux コンピューターをお持ちの場合は、チュートリアルに従って、Ubuntu またはその他のディストリビューションに Python と Pip をインストールできます。
- ターミナルで以下のコマンドを実行して、コンピューターに Python と Pip がインストールされていることを確認 できます。バージョン番号が返されるはずです。
python -V
pip -V
- インストールが成功したら、以下のコマンドを実行して Google の Generative AI 依存関係をインストールします 。
pip install -q -U google-generativeai
Gemini Pro API キーを取得する方法
- 次に、makersuite.google.com/app /apikey ( にアクセスしてください ) に移動し、Google アカウントでサインインします。
- API キーの下で、「 新しいプロジェクトに API キーを作成 」ボタンをクリックします。
- API キーをコピーし 、非公開にしておきます。 API キーを公開または共有しないでください。
Gemini Pro API キーの使用方法 (テキストのみのモデル)
OpenAI と同様に、Google は開発とテストの目的で Gemini API キーを簡単に使用できるようにしました。一般ユーザーがテストして使用できるように、コードを非常にシンプルにしました。この例では、API キーを介して Gemini Pro Text モデルを使用する方法を示します。
- まず、任意のコード エディターを起動します。初心者の場合は、 Notepad++ をインストールしてください ( こちらを参照 )。上級ユーザーにとって、Visual Studio Code ( こちらを参照 ) は優れたツールです。
- 次に、以下のコードをコピーしてコード エディターに貼り付けます。
import google.generativeai as genai
genai.configure(api_key='PASTE YOUR API KEY HERE')
model = genai.GenerativeModel('gemini-pro')
response = model.generate_content("What is the meaning of life?")
print(response.text)
- コード エディターに、Gemini API キーを貼り付けます。ご覧のとおり、テキストのみのモデルである「gemini-pro」モデルを定義しました。また、 質問できる クエリも追加しました。
-
次に、コードを保存し、ファイルに名前を付けます。最後に
.pyを必ず追加してください。ファイルにgemini.pyという名前を付けてデスクトップに保存しました。
- 次に、ターミナルを起動し、以下のコマンドを実行して デスクトップに移動します 。
cd Desktop
-
ターミナルのデスクトップに移動したら、以下のコマンドを実行して、Python を使用して
gemini.pyファイル を実行します 。
python gemini.py
-
これで、
gemini.pyファイルに設定した 質問に答えます 。
-
コード エディターで
質問を変更して
保存し、
gemini.pyファイルを再度実行すると、ターミナルで直接新しい応答を取得できます。これが、Google Gemini API キーを使用してテキストのみの Gemini Pro モデルにアクセスする方法です。
Gemini Pro API キーの使用方法 (テキスト アンド ビジョン モデル)
この例では、Gemini Pro マルチモーダル モデルを操作する方法を示します。まだ Google Bard では公開されていませんが、API を介してすぐにアクセスできます。そしてありがたいことに、このプロセスも非常に簡単でシームレスです。
- コード エディタで新しいファイルを開き、 以下のコードを貼り付けます 。
import google.generativeai as genai
import PIL.Image
img = PIL.Image.open('image.jpg')
genai.configure(api_key='PASTE YOUR API KEY HERE')
model = genai.GenerativeModel('gemini-pro-vision')
response = model.generate_content(["what is the total calorie count?", img])
print(response.text)
-
Gemini API キーを必ず貼り付けてください。ここでは、テキスト アンド ビジョン モデルである
gemini-pro-visionモデルを使用しています。
-
次に、ファイルをデスクトップに保存し、ファイル名の末尾に
.pyを追加します。ここではgeminiv.pyという名前を付けました。
-
コードの 3 行目では、ご覧のとおり、デスクトップに正確な名前で保存されている
image.jpgファイルを AI に指定しています。どのような画像を処理する場合でも、その画像がgeminiv.pyファイルと同じ場所に保存されていること、およびファイル名が同じで正しい拡張子が付いていることを確認してください。最大 4MB までのローカル JPG および PNG ファイルを渡すことができます。
- コードの 6 行目では、画像に関連する質問をすることができます。食べ物関連の画像をフィードしているため、Gemini Pro に 総カロリー数の計算 を依頼しています。
- ターミナルで コードを実行します 。 (私の場合) デスクトップに移動し、以下のコマンドを 1 つずつ実行するだけです。変更を行った場合は、必ずファイルを保存してください。
cd Desktop
python geminiv.py
- ビジュアルな Gemini Pro モデルは、その質問に直接答えます。さらに質問をしたり、AI に その理由を説明して もらうことができます。
-
別の画像をフィードする
こともできますが、必ず画像のファイル名を一致させ、コード内の質問を変更し、
geminiv.pyファイルを再度実行して新しい応答を取得してください。
Gemini Pro API キーをチャット形式で使用する方法
unconv ( GitHub ) の簡潔なコードのおかげで、Gemini AI API キーを使用してターミナル ウィンドウで Gemini Pro モデルとチャットできます。こうすることで、コード内の質問を変更したり、Python ファイルを再実行して新しい出力を取得したりする必要がなくなります。ターミナル ウィンドウ自体でチャットを続行できます。
何よりも、Google はチャット履歴をネイティブに実装しているので、応答を手動で追加したり、配列やリストで チャット履歴を独自に管理したりする 必要はありません。シンプルな機能により、Google はチャット セッション内のすべての会話履歴を保存します。その仕組みは次のとおりです。
- コード エディターを開き、 以下のコードを貼り付けます 。
import google.generativeai as genai
genai.configure(api_key='PASTE YOUR API KEY HERE')
model = genai.GenerativeModel('gemini-pro')
chat = model.start_chat()
while True:
message = input("You: ")
response = chat.send_message(message)
print("Gemini: " + response.text)
- いつものように、上記のセクションと同様の API キーを貼り付けます。
-
次に、ファイルをデスクトップまたは任意の場所に保存します。最後に
.pyを必ず追加してください。私はそれにgeminichat.pyファイルという名前を付けました。
-
次に、ターミナルを起動してデスクトップに移動します。その後、
geminichat.pyファイルを実行します。
cd Desktop
python geminichat.py
- 会話を簡単に継続できるようになり、 チャット履歴も記憶され ます。したがって、これは Google Gemini API キーを使用するもう 1 つの優れた方法です。
これらは、API を通じて Google Gemini の機能をチェックできるいくつかの例です。私は、Google が自社のビジョン モデルを愛好家や開発者が試せるように公開し、OpenAI の DALL-E 3 や ChatGPT と比較しているという事実が気に入っています。 Gemini Pro ビジョン モデルは GPT-4V モデルに勝るものはありませんが、それでも かなり優れて います。 GPT-4モデルと同等のGemini Ultraの発売が待たれます。
それとは別に、Gemini Pro API からの応答は、同様に微調整されたバージョンの Gemini Pro を搭載した Google Bard とは少し異なるように感じられます。 Bard の応答は 少し 退屈でサニタイズされているように 見えますが、Gemini Pro の API 応答はより生き生きとしていて、個性があるように感じられます。
私たちはこの分野のすべての変化を追跡していきますので、Gemini AI 関連のコンテンツを今後も楽しみにしていてください。その間、Google Gemini API を自分でチェックしてみてください。






![2021 年に Raspberry Pi Web サーバーをセットアップする方法 [ガイド]](https://i0.wp.com/pcmanabu.com/wp-content/uploads/2019/10/web-server-02-309x198.png?w=1200&resize=1200,0&ssl=1)




