最新版Google AI Studioの始め方と実践ステップ

最新版Google AI Studioの始め方と実践ステップ:AI開発を加速する強力なツールを徹底解説

はじめに

人工知能(AI)技術、特に生成AIの進化は目覚まじく、私たちの働き方や創造のプロセスを根本から変えつつあります。その核となるのは、OpenAIのGPTシリーズやAnthropicのClaude、そしてGoogleが開発するGeminiファミリーのような大規模言語モデル(LLM)やマルチモーダルモデルです。これらの強力なモデルを活用することで、テキスト生成、翻訳、要約、プログラミングコード生成、さらには画像理解など、多岐にわたるタスクを自動化・高度化できます。

しかし、これらの最先端モデルを効果的に活用するためには、多くの場合、プログラミングスキルや複雑なAPI連携の知識が必要となります。特に、AIの能力を最大限に引き出す「プロンプトエンジニアリング」は、試行錯誤が不可欠なプロセスですが、そのための開発環境の構築や管理は容易ではありませんでした。

こうした課題を解決し、より多くの開発者やクリエイターが手軽にAIモデルの可能性を探求できるよう設計されたのが、Google AI Studioです。そして、その最新版は、使いやすさ、機能性、そして強力なGeminiモデルとの連携において、さらなる進化を遂げています。

本記事では、最新版Google AI Studioの概要から、アカウント作成、APIキーの取得、基本的な使い方、そしてFunction Callingやマルチモーダルプロンプトといった高度な実践ステップまで、約5000語にわたる詳細な解説を行います。この記事を読むことで、あなたはGoogle AI Studioを自在に操り、AI開発の新たな地平を切り開くための確固たる第一歩を踏み出せるでしょう。

第1章:Google AI Studioとは何か? AI開発の新しいカタチ

1.1 Google AI Studioの基本概念と目的

Google AI Studioは、Googleが提供するブラウザベースの統合開発環境(IDE)です。その主な目的は、開発者が大規模言語モデル(LLM)やマルチモーダルモデルを簡単に試したり、プロトタイプを作成したり、実験したりできるようにすることです。特に、コーディングの知識が少ないユーザーでも、視覚的なインターフェースを通じてモデルと対話しながら、プロンプトの効果を即座に確認できる点に強みがあります。

従来のAI開発では、モデルのAPIを直接叩くためにプログラミング言語(Pythonなど)を使い、リクエストを組み立て、レスポンスを処理する必要がありました。また、プロンプトの変更を試すたびにコードを修正し、実行し直す必要がありました。Google AI Studioは、これらの煩雑なプロセスを抽象化し、ユーザーが「プロンプトそのもの」と「モデルの応答」に集中できるように設計されています。

1.2 Geminiファミリーモデルとの緊密な連携

Google AI Studioの最大の特長の一つは、Googleが誇る最新鋭のAIモデルファミリーである「Gemini」との緊密な連携です。Geminiは、テキストだけでなく、画像、音声、動画などの多様な情報を理解し、処理できるマルチモーダル能力を持つことが特徴です。

Google AI Studioでは、Gemini Pro(テキストタスクに最適化された強力なモデル)、Gemini Vision Pro(画像理解に特化したモデル、現在はテキストと画像を組み合わせた入力に対応)、そして将来的にさらに強力なモデルや特定のタスクに特化したモデルが利用可能になる予定です。

ユーザーはGoogle AI Studioのインターフェースを通じて、これらのGeminiモデルの能力を最大限に引き出すプロンプトを直感的に設計、テスト、調整することができます。APIキーさえあれば、複雑な環境設定なしに、すぐに最先端のAIモデルを使い始めることができます。

1.3 ローコード/ノーコードでのプロトタイピングのメリット

Google AI Studioは、基本的にローコード(必要最低限のコード)またはノーコード(コード不要)での操作を前提としています。このアプローチには、以下のような多くのメリットがあります。

  • 開発速度の向上: コードを書く手間が省けるため、プロンプトのアイデアを思いついたらすぐに試すことができます。これにより、開発サイクルが大幅に短縮されます。
  • 技術的ハードルの低下: プログラミング経験がない人でも、AIモデルを使ったアプリケーションのプロトタイプを作成できます。これにより、より多くの人がAI技術を活用できるようになります。
  • 試行錯誤の容易さ: プロンプトのパラメータや構造を簡単に変更し、その結果を即座に確認できます。これは、効果的なプロンプトを見つけるための試行錯誤において非常に重要です。
  • アイデアの可視化: プロンプトとモデルの応答が視覚的に表示されるため、思考プロセスを整理しやすく、他の人と共有するのも容易です。
  • コスト効率: 初期段階のプロトタイピングにおいて、開発環境の構築や大規模なコーディング作業が不要になるため、コストを抑えることができます。

Google AI Studioは、まさにAIを活用した新しいアイデアの迅速な検証とプロトタイピングのための理想的な環境と言えるでしょう。

第2章:最新版Google AI Studioの主な機能

最新版のGoogle AI Studioは、ユーザーエクスペリエンスの向上、より強力なプロンプトエンジニアリング機能、そして他のGoogleサービスとの連携強化など、様々な進化を遂げています。ここでは、その主要な機能について詳しく見ていきましょう。

2.1 新しいUI/UXの変更点

最新版では、より直感的で効率的なUI/UXが採用されています。

  • 統合されたワークスペース: プロンプトの入力、モデルの選択、パラメータ調整、応答の表示がすべて一つの画面内でスムーズに行えるようになっています。
  • サイドバーナビゲーション: プロンプトの種類(テキスト、マルチモーダルなど)の選択、保存したプロンプトへのアクセス、APIキー管理などがサイドバーに整理され、アクセス性が向上しました。
  • リアルタイムプレビュー: プロンプトや設定を変更すると、モデルの応答がほぼリアルタイムで更新されるため、調整結果を即座に確認できます。
  • ダークモード対応: 長時間の作業でも目が疲れにくいダークモードが利用可能です。

これらのUI/UXの改善により、ユーザーはAIモデルとのインタラクションに集中し、より快適にプロンプトエンジニアリングを行うことができるようになっています。

2.2 強化されたプロンプトエンジニアリング機能

プロンプトエンジニアリングは、AIモデルの性能を引き出すための鍵となります。最新版Google AI Studioでは、このプロセスをサポートするための機能が強化されています。

2.2.1 テキストプロンプト

  • 明確な入力セクション: システム指示(モデルの役割や振る舞いを定義)、ユーザー入力(実際のタスクや質問)、例示(Few-shot promptingのための入力と期待される出力のペア)が明確に区別されたセクションで入力できます。これにより、プロンプトの構造が整理され、意図がモデルに伝わりやすくなります。
  • モデルパラメータの詳細設定: 温度(Temperature)、最大出力トークン数(Max output tokens)、Top-P、Top-Kといったモデルの応答を制御するパラメータを視覚的に調整できます。これらのパラメータを調整することで、応答の創造性や多様性、正確性などをコントロールすることが可能です。
  • 応答形式の指定(例:JSON): 例示やシステム指示を通じて、モデルに特定の形式(例:JSON、Markdown)で応答するように誘導できます。これは、AIモデルをアプリケーションのバックエンドとして利用する際に非常に重要です。

2.2.2 マルチモーダルプロンプト

  • 画像アップロード機能: テキスト入力に加えて、画像を簡単にアップロードし、プロンプトの一部として使用できます。これにより、画像の内容について質問したり、画像に基づいてストーリーを作成したり、画像とテキストの両方を考慮した複雑なタスクを実行したりすることが可能になります。
  • 複数の画像に対応: 一つのプロンプト内で複数の画像を組み合わせて入力できます。これにより、画像間の関係性を尋ねたり、一連の画像に基づいて状況を説明させたりするなど、より複雑なシナリオに対応できます。
  • 画像とテキストの組み合わせの自由度: プロンプト内で画像とテキストを自由に組み合わせて配置できます。これにより、自然な対話形式でマルチモーダルな情報をモデルに伝えることができます。

2.3 Function Callingの進化と応用例

Function Callingは、AIモデルに外部のツールやAPIを呼び出すための指示を生成させる機能です。これにより、AIモデルの能力をリアルタイムの情報検索、外部サービスとの連携、特定のアクションの実行など、モデル自身の学習データに限定されない範囲に拡張できます。

Google AI Studioの最新版では、Function Callingの設計とテストがより簡単になりました。

  • ツールの定義インターフェース: 呼び出したい外部関数の仕様(関数名、パラメータ、説明)を、JSONスキーマ(OpenAPI形式)で定義し、AI Studioに登録できます。
  • プロンプトへの組み込み: 定義したツールをプロンプトに含めることで、「このツールを使ってユーザーの質問に答えてください」といった指示をモデルに与えることができます。
  • モデルからの呼び出し指示の生成: ユーザーの入力に基づいて、モデルは定義されたツールの中から適切なものを判断し、実行に必要な引数を含む関数呼び出しの形式で応答を生成します。

Function Callingの応用例:

  • リアルタイム情報検索: ユーザーが「今日の東京の天気は?」と質問した場合、モデルは「現在の天気予報を取得する関数」を呼び出す指示を生成します。アプリケーション側はその指示を受け取り、天気APIを実行して結果を取得し、モデルに返します。モデルはその情報をもとに、自然な言葉で天気予報を回答します。
  • 外部サービス連携: ユーザーが「〇〇ホテルを予約して」と依頼した場合、モデルは「ホテル予約システムAPIの予約関数」を呼び出す指示を生成します。
  • データベース操作: ユーザーの指示に基づいて、データベースを検索したり、データを追加・更新したりするためのSQLクエリ生成関数などを呼び出す指示を生成します。

Google AI Studioでは、モデルが生成するFunction Callingの指示をシミュレーションしたり、プロンプトが意図通りにFunction Callingをトリガーするかを確認したりすることができます。ただし、実際に外部APIを実行するのは、Google AI Studioでプロトタイプを作成した後、Vertex AIなどを利用して構築するアプリケーション側の役割となります。

2.4 データコネクタ(今後の展望含む)

現時点のGoogle AI Studioには、直接的な「データコネクタ」機能は限定的ですが、将来的にはよりリッチなデータ連携機能が期待されます。例えば、Google DriveやGoogle Sheets、あるいは他のデータソースから直接データを読み込み、それをプロンプトの一部として利用したり、生成された応答を特定のフォーマットで出力したりする機能などです。

現状でも、ローカルファイルをアップロードしてプロンプトに含めることは可能ですが、よりシームレスなクラウドサービス連携が進むことで、AI Studioの活用範囲はさらに広がると考えられます。

2.5 他のGoogle Cloudサービスとの連携(Vertex AIなど)

Google AI Studioで作成したプロンプトや設定は、Google CloudのマネージドAIプラットフォームであるVertex AIに簡単にエクスポートして利用できます。

  • AI Studio: アイデアの探索、プロンプトのプロトタイピング、モデルの挙動のテストといった開発の初期段階や実験的な用途に適しています。手軽さと迅速なイテレーションが強みです。
  • Vertex AI: AI Studioで作成したプロトタイプを、本番環境のアプリケーションに組み込むためのプラットフォームです。APIエンドポイントのデプロイ、大規模なバッチ処理、MLOps(機械学習の運用)、モニタリング、セキュリティ管理など、エンタープライズレベルのAIアプリケーション開発に必要な機能を提供します。

Google AI Studioでプロンプトの品質を十分に高めた後、Vertex AIに移行することで、そのプロンプトをスケーラブルで信頼性の高い形で本番運用に乗せることができます。このシームレスな連携は、開発ライフサイクル全体を効率化する上で非常に強力です。

2.6 バージョン管理と共有機能

最新版Google AI Studioでは、作成したプロンプトを保存し、バージョン管理を行うことができます。これにより、異なるプロンプトの試行錯誤の履歴を追跡したり、以前のバージョンに戻したりすることが容易になります。

また、作成したプロンプトを他のユーザーと共有する機能も提供されています(ただし、組織やプロジェクトの設定による制限がある場合があります)。チーム内でプロンプトのベストプラクティスを共有したり、共同でプロンプトエンジニアリングを進めたりする際に便利です。

プロンプトは、API呼び出しのためのコードスニペット(Python, Node.js, cURLなど)としてもエクスポートできるため、AI Studioでテストしたプロンプトをすぐに自身のコードに組み込むことができます。

第3章:Google AI Studioの始め方 – ステップバイステップ

さあ、実際にGoogle AI Studioを使ってみましょう。始めるための手順は非常に簡単です。

3.1 前提条件(Googleアカウント)

Google AI Studioを利用するために必要なのは、有効なGoogleアカウントだけです。GmailやGoogle Driveなどを利用している方であれば、既にアカウントを持っています。持っていない場合は、無料で簡単に作成できます。

3.2 Google AI Studioへのアクセス方法

Google AI Studioにアクセスするには、ウェブブラウザを開き、以下のURLにアクセスします。

https://aistudio.google.com/

このURLにアクセスすると、Google AI Studioのランディングページが表示されます。

3.3 利用規約とプライバシーポリシーの同意

初回アクセス時には、Google AI Studioの利用規約とプライバシーポリシーへの同意が求められます。内容をよく読み、同意する場合はチェックボックスにチェックを入れて、「同意して続行」などのボタンをクリックします。

3.4 APIキーの取得と管理

Google AI Studioで実際にAIモデル(Geminiなど)を利用するには、APIキーが必要です。APIキーは、あなたの操作を識別し、利用状況を追跡するために使用されます。

  1. APIキーの生成: Google AI Studioのインターフェースにアクセスした後、通常は画面右上のアカウントアイコンの近くや、設定メニュー、あるいは初めてプロンプトを作成しようとした際に、「Get API key」や「API key settings」といったボタンが表示されます。それをクリックします。
  2. Google Cloudプロジェクトの選択または作成: APIキーはGoogle Cloudプロジェクトに関連付けられます。既存のGoogle Cloudプロジェクトを選択するか、新しいプロジェクトを作成するよう求められます。通常、AI Studioの無料利用枠のために新しいプロジェクトを作成するのが最も簡単です。画面の指示に従ってプロジェクトを選択または作成します。
  3. APIキーの生成と表示: プロジェクトを選択した後、APIキーが生成され、画面に表示されます。
  4. APIキーのコピーと保管: 表示されたAPIキーをコピーし、安全な場所に保管してください。APIキーは非常に重要であり、外部に漏洩しないように厳重に管理する必要があります。一度画面を閉じると、APIキー自体は二度と表示されないため、必ずコピーしてください。 後からAPIキーが必要になった場合は、新しいキーを生成する必要があります。

生成されたAPIキーは、Google AI Studioのプロンプト設定で利用されます。通常は自動的に設定されますが、必要に応じて手動で入力することも可能です。

3.5 無料枠と有料枠について

Google AI Studioで利用できるAPIアクセスには、無料枠と有料枠があります。

  • 無料枠: 一定のリクエスト数や処理量までは無料で利用できます。これは、プロトタイピングや小規模な実験を行うには十分な量です。無料枠の上限はモデルの種類や地域によって異なる場合がありますので、公式ドキュメントで最新情報を確認してください。
  • 有料枠: 無料枠を超えて利用する場合や、より大規模な本番環境での利用を想定する場合は、Google Cloud Platform(GCP)のアカウントを設定し、支払い情報を登録する必要があります。利用量に応じた従量課金となります。料金体系についても、利用するモデルや処理内容(テキスト処理、画像処理など)によって異なりますので、Google Cloudの公式料金ページを参照してください。

AI Studioでプロトタイピングしている間は、ほとんどの場合、無料枠で十分でしょう。無料枠を超過しそうになったり、本格的にアプリケーションに組み込む段階になったら、Vertex AIへの移行とGCPでの課金設定を検討します。

これで、Google AI Studioを使い始めるための基本的な準備は完了です!

第4章:実践ステップ – プロンプトエンジニアリングの基本

Google AI Studioのインターフェースに慣れ、APIキーも取得したら、いよいよプロンプトエンジニアリングの実践に入ります。ここでは、テキストプロンプトの基本から効果的なプロンプト記述のコツまでを解説します。

4.1 新しいプロンプト作成の開始

Google AI Studioにログインし、左側のメニューまたは中央の大きなボタンから「Create new」を選択し、「Text Prompt」をクリックします。新しいプロンプト編集画面が表示されます。

4.2 モデルの選択

プロンプト編集画面の右側にある設定パネルで、使用するモデルを選択します。ドロップダウンリストから利用可能なモデル(例: gemini-pro)を選択します。マルチモーダルな入力を扱う場合は、対応するモデル(例: gemini-pro-vision – 現在はgemini-proに統合されていることが多い)を選択します。

4.3 テキストプロンプトの基本構造

効果的なプロンプトは、以下の要素を適切に組み合わせることで構成されます。Google AI Studioのインターフェースは、これらの要素を入力しやすいように設計されています。

  • システム指示 (System Instruction): モデルにどのような役割を担わせたいか、どのようなトーンで応答してほしいか、どのような制約を守ってほしいかなどを指示します。これは、モデルの全体的な振る舞いを規定する重要な部分です。
    • 例:「あなたは専門家レベルのPythonプログラマーです。ユーザーが求めるコードを、説明を加えて提供してください。」
    • 例:「あなたは丁寧なカスタマーサポートエージェントです。ユーザーからの質問に、共感的かつ明確に答えてください。」
  • ユーザー入力 (User Input): ユーザーがモデルに対して行う実際の質問やタスクの指示です。
    • 例:「フィボナッチ数列を生成するPython関数を書いてください。」
    • 例:「冷蔵庫にあるナスとトマトと鶏肉を使って作れる簡単な料理レシピを教えてください。」
  • 例示 (Examples – Few-shot Prompting): モデルに特定の入力に対してどのように応答すべきかを示すために、入力と期待される出力のペアを提供します。これにより、モデルはあなたの求める応答スタイルや形式を学習します。例示がない場合は、モデルはより一般的な応答を生成します(Zero-shot PromptingやOne-shot Prompting)。
    • 例示1:
      • User Input: リンゴ
      • Model Output: 赤くて丸い果物です。
    • 例示2:
      • User Input: バナナ
      • Model Output: 黄色くて細長い果物です。
    • (その後の実際のUser Input:)ぶどう
    • 期待されるModel Output: 紫色または緑色の小さな果実が集まった房です。

Google AI Studioでは、「System Instruction」フィールド、実際の「User Input」フィールド、そして「Add example」ボタンをクリックして追加できる「Example」のペア入力フィールドが用意されています。

4.4 効果的なプロンプト記述のコツ

プロンプトエンジニアリングは科学であると同時に芸術でもあります。より良い結果を得るためには、いくつかのコツがあります。

  • 明確性と具体性: 曖昧な指示ではなく、具体的で明確な言葉遣いを心がけましょう。何を期待しているのかをモデルに正確に伝えることが重要です。
    • NG: 「長い文章を短くして。」
    • OK: 「以下の文章を、元の意味を保ったまま200字以内に要約してください。」
  • 制約設定: 出力形式、文字数、含めるべき情報、含めるべきでない情報など、可能な限り制約を指定します。
    • 例:「回答は箇条書きにしてください。」
    • 例:「技術的な専門用語は使わないでください。」
    • 例:「回答はJSON形式で出力してください。キーは’title’, ‘author’, ‘summary’としてください。」
  • ペルソナ設定: システム指示でモデルに特定の役割やペルソナを与えると、その役割に基づいた応答を生成しやすくなります。
    • 例:「あなたは歴史の先生です。」
    • 例:「あなたはクリエイティブなコピーライターです。」
  • 思考の連鎖 (Chain-of-Thought / CoT) プロンプティング: モデルが最終的な回答を生成する前に、中間的な思考ステップを経るように指示します。これにより、複雑な問題に対してより論理的で正確な回答を得やすくなります。
    • 例:「ステップバイステップで考えてください。まず、問題を分解し、それぞれの部分を解決し、最後に全体の結論を導き出してください。」
  • 例示の活用 (Few-shot): 求める出力形式やスタイルが独特な場合、具体的な例示を示すことが非常に効果的です。複数の例を示すことで、モデルの理解を深めることができます。
  • 否定的な制約よりも肯定的な指示: 「~しないでください」という指示よりも、「~してください」という肯定的な指示の方が、モデルは意図を正確に把握しやすい傾向があります。
  • 繰り返しと強調: 重要な指示は繰り返し述べたり、特別なマーカー(例: ### Instruction ###)を使ったりして強調すると、モデルが見落としにくくなります。

Google AI Studioのインターフェースでは、これらの要素を構造的に入力できるため、プロンプトの設計が容易になります。入力フィールドにテキストを入力したら、右下の「Run」ボタンをクリックしてモデルの応答を確認しましょう。応答を評価し、必要に応じてプロンプトを修正して再度実行することを繰り返します。

4.5 プロンプトのテストとデバッグ

プロンプトは一度書いて終わりではありません。意図した通りの応答が得られるまで、何度もテストとデバッグを繰り返す必要があります。

  • 多様な入力でのテスト: 一種類の入力だけでなく、考えられる様々なパターンの入力でプロンプトをテストします。一般的なケース、エッジケース、例外的なケースなどを試すことで、プロンプトの堅牢性を確認できます。
  • パラメータ調整: Temperature, Top-P, Top-Kなどのパラメータを変更して、応答の多様性や焦点を調整します。創造的な応答が必要な場合はTemperatureを高く、正確で決定的な応答が必要な場合は低く設定するなど、目的に応じて調整します。
  • モデルの応答を分析: なぜモデルが期待と異なる応答をしたのかを分析します。プロンプトが曖昧だったか、制約が不十分だったか、例示が分かりにくかったかなどを特定し、プロンプトを改善します。
  • イテレーション: テストと分析の結果に基づいてプロンプトを修正し、再びテストします。このイテレーションサイクルを通じて、プロンプトの質を高めていきます。

Google AI Studioは、このテストとデバッグのサイクルを非常に効率的に回せる環境を提供します。プロンプトを変更して「Run」ボタンをクリックするだけで、すぐに結果を確認できるからです。

第5章:実践ステップ – マルチモーダルプロンプト

Geminiモデルの大きな特長の一つは、マルチモーダルな情報を理解・処理できることです。Google AI Studioでは、画像を含むマルチモーダルプロンプトを簡単に作成し、その能力を試すことができます。

5.1 マルチモーダルプロンプトとは何か

マルチモーダルプロンプトとは、テキストだけでなく、画像、音声、動画などの複数のモダリティ(形式)の情報を組み合わせてモデルに入力するプロンプトのことです。Geminiモデルのようなマルチモーダルモデルは、これらの異なる形式の情報を同時に理解し、それらを統合的に考慮した応答を生成できます。

Google AI Studioの現状(執筆時点の最新版)では、主にテキストと画像を組み合わせたマルチモーダルプロンプトに対応しています。

5.2 Google AI Studioでのマルチモーダルプロンプトの作成方法

マルチモーダルプロンプトを作成するには、新しいプロンプト作成時に「Multimodal Prompt」を選択します。インターフェースはテキストプロンプトと似ていますが、画像を追加するための特別なエリアが用意されています。

  1. 新しいマルチモーダルプロンプトの作成: 左側のメニューまたは中央のボタンから「Create new」を選択し、「Multimodal Prompt」をクリックします。
  2. モデルの選択: 右側の設定パネルで、マルチモーダル入力をサポートするモデル(通常はgemini-proでVision機能が有効化されています)を選択します。
  3. 画像を追加: プロンプト入力エリアの上部に、画像をドラッグアンドドロップするか、「Upload Images」ボタンをクリックして画像ファイルを選択するエリアがあります。ここに、プロンプトに含めたい画像をアップロードします。複数の画像を追加できます。
  4. テキストと画像を組み合わせたプロンプトの記述: アップロードした画像は、プロンプト入力エリアにサムネイルとして表示されます。テキスト入力とこれらの画像サムネイルを自由に組み合わせて、プロンプトを記述します。画像はプロンプト内のどこにでも配置できます。
    • 例:「この画像について説明してください:[画像サムネイル]」
    • 例:「[画像1サムネイル]と[画像2サムネイル]の違いは何ですか?」
    • 例:「[画像サムネイル]の人物について想像できるストーリーを書いてください。」
    • 例:「以下のテキストと[画像サムネイル]を考慮して、この状況を説明してください:ユーザー入力テキスト」
  5. プロンプトの実行と応答の確認: テキストと画像の入力、および必要に応じてシステム指示や例示を入力したら、右下の「Run」ボタンをクリックします。モデルは画像とテキストの内容を総合的に判断し、応答を生成します。

5.3 画像とテキストを組み合わせた例

具体的なマルチモーダルプロンプトの例をいくつか示します。

例1:画像の内容説明

  • 画像: 猫が箱の中で寝ている写真
  • テキスト: 「この画像に写っているものを詳細に説明してください。」
  • 期待される応答: 猫が段ボール箱の中で丸くなって眠っている様子、箱の質感、猫の色や姿勢などを詳しく説明するテキスト。

例2:画像に基づく質問応答

  • 画像: パリの街並みの写真(エッフェル塔が写っている)
  • テキスト: 「この画像はどこの都市で撮影された可能性が高いですか?その根拠も述べてください。」
  • 期待される応答: パリ。エッフェル塔が写っているため。

例3:画像とテキストを組み合わせた推論

  • 画像: 散らかった部屋の写真
  • システム指示: 「あなたは名探偵です。この部屋の状況から、最近ここで何が起こったかを推理してください。」
  • テキスト: 「[画像サムネイル] この部屋を見て、何か気づいたことはありますか?」
  • 期待される応答: 散らかり具合、置いてある物、窓の様子などから、何らかの出来事(例:急な来客、探し物をしていた、子供が遊んでいた)があった可能性を示唆する推理。

例4:画像に基づく創造的なタスク

  • 画像: 夕日が沈む海岸の写真
  • テキスト: 「[画像サムネイル] この風景にインスパイアされた短い詩を書いてください。」
  • 期待される応答: 夕日、海、砂浜などをテーマにした情感豊かな詩。

これらの例のように、マルチモーダルプロンプトを活用することで、画像の内容を理解するだけでなく、画像とテキストを組み合わせてより複雑な質問に答えたり、創造的なタスクを実行したりすることが可能になります。

5.4 注意点と限界

  • 処理能力: 画像サイズや解像度には上限があります。非常に大きな画像や多数の画像を一度に入力すると、処理に時間がかかったり、エラーが発生したりする可能性があります。
  • 抽象的な概念の理解: モデルは画像の内容を「見る」ことはできますが、人間の目や脳のように完全に理解しているわけではありません。抽象的な概念や微妙なニュアンスの理解には限界がある場合があります。
  • 倫理的配慮: 個人情報や機密情報が含まれる画像をアップロードする際は、プライバシーやセキュリティに十分注意が必要です。また、不適切な内容の画像を扱うことは避けるべきです。
  • 最新のデータ: モデルの学習データは過去のデータに基づいています。画像に写っている最新の出来事や情報については、正確に認識できない場合があります。

マルチモーダルプロンプトは非常に強力な機能ですが、その能力と限界を理解した上で適切に活用することが重要です。

第6章:実践ステップ – Function Calling

Function Callingは、AIモデルを外部ツールと連携させるための高度な機能です。Google AI StudioでFunction Callingを設計し、プロンプトに組み込む方法を学びましょう。

6.1 Function Callingとは何か、その仕組み

前述の通り、Function Callingは、ユーザーの質問や指示に基づいて、AIモデルが外部の関数(ツール、APIなど)を呼び出すための指示を生成する機能です。モデル自身が関数を実行するわけではなく、あくまで「ユーザーの意図を理解し、それを実現するためにどの関数を、どのような引数で呼び出すべきか」を判断し、そのための構造化された情報を出力します。

仕組みとしては、以下のようになります。

  1. ツールの定義: アプリケーション側で利用可能な外部関数(APIエンドポイントなど)の仕様を、OpenAPIスキーマ形式で定義します。関数名、説明、必要なパラメータ(名前、型、説明、必須/任意など)を指定します。
  2. プロンプトへの組み込み: Google AI Studioでプロンプトを作成する際に、定義したツール情報を含めます。これにより、モデルはどのようなツールが利用可能であるかを知ることができます。
  3. ユーザー入力の解析: ユーザーが質問や指示を入力します。
  4. モデルの判断: モデルはユーザー入力、プロンプトの指示、そして利用可能なツール定義を総合的に判断し、ユーザーの意図を実現するためにツールを呼び出す必要があるかを判断します。
  5. 関数呼び出し指示の生成: ツールが必要と判断した場合、モデルは呼び出すべき関数名と、その関数に渡すべき引数を含む、特定の形式(通常はJSON)の応答を生成します。
  6. アプリケーション側の処理: アプリケーション(Google AI Studioの外で実行されるコード)はこの応答を受け取り、それがFunction Callingの指示であると判断します。
  7. 関数の実行: アプリケーションはモデルが生成した関数呼び出し指示に基づいて、実際に外部の関数やAPIを実行します。
  8. 結果の取得と返送: 関数の実行結果をアプリケーションが取得します。
  9. 結果をモデルに返送(オプション): 取得した結果を、モデルへの次の入力として渡すことで、モデルはその結果を踏まえた応答を生成できます。

6.2 Google AI Studioでのツールの定義方法

Google AI Studioでは、プロンプト編集画面の右側パネルに「Tools」セクションがあります。ここで利用可能なツールを定義します。

  1. 「Add Tool」をクリック: 「Tools」セクションで「Add Tool」ボタンをクリックします。
  2. ツールの定義情報を入力:
    • Name: 関数のユニークな名前を付けます(例: getCurrentWeather, searchFlights)。アプリケーション側でこの名前を使って関数を識別します。
    • Description: 関数の機能を簡潔かつ明確に説明します。モデルはこの説明を読んで、いつこの関数を呼び出すべきかを判断します。この説明は非常に重要です。
    • Parameters: 関数が受け取る引数を定義します。パラメータごとに名前、型(string, number, booleanなど)、説明、必須かどうか(required)を指定します。
      • 例(天気予報関数):
        • Name: location, Type: string, Description: 「天気情報を取得したい都市名または地名」, Required: Yes
        • Name: unit, Type: string, Description: 「気温の単位(摂氏なら ‘celsius’, 華氏なら ‘fahrenheit’)」, Required: No (default: celsius)
    • これらの定義は、内部的にはOpenAPIスキーマ形式(JSONまたはYAML)で保持されます。AI Studioのインターフェースで入力すると、自動的にその形式に変換されます。

複数のツールを定義し、プロンプトに含めることができます。モデルは、ユーザーの入力に対して最も適切と思われるツールを選択して呼び出し指示を生成します。

6.3 Function Callingを含むプロンプトの作成

ツールの定義ができたら、そのツールをプロンプトに含めます。Google AI Studioでは、プロンプトの編集画面で定義したツールを選択または有効化するだけで、自動的にプロンプトの一部としてモデルに渡されるようになります。特別なテキストをプロンプト本文に書く必要はありません。

ただし、システム指示やユーザー入力で、ツールが利用可能であることを示唆したり、特定のタスクにツールを使うように促したりすることは有効です。

  • システム指示の例: 「あなたはユーザーの質問に答えるAIアシスタントです。必要に応じて、提供されているツールを使用してリアルタイム情報を取得してください。特に、天気に関する質問にはgetCurrentWeatherツールを使用してください。」
  • ユーザー入力の例: 「今日のニューヨークの天気は?」

このユーザー入力に対して、モデルは定義されたgetCurrentWeatherツールがこの質問に関連すると判断し、以下のようなFunction Callingの指示を含む応答を生成する可能性があります。

json
{
"tool_calls": [
{
"function": {
"name": "getCurrentWeather",
"args": {
"location": "New York"
}
}
}
]
}

6.4 モデルからの関数呼び出し指示の解釈と実行方法(アプリケーション側の処理)

Google AI Studioは、モデルが上記のJSON形式の応答を生成するところまでをシミュレーションします。この応答を受け取り、実際に外部関数を実行するのは、あなたがGoogle AI Studioでプロトタイプを作成した後に構築するアプリケーションコードの役割です。

アプリケーションコード(例: Pythonスクリプト、ウェブアプリケーションのバックエンドなど)は、以下の手順でFunction Callingを実行します。

  1. モデルからの応答を受け取る: Vertex AI APIなどを介してモデルを呼び出し、応答を取得します。
  2. 応答形式の確認: 応答がFunction Callingの形式(tool_callsを含むJSON)であるかを確認します。
  3. 関数呼び出し情報の解析: tool_callsリストから、呼び出すべき関数名 (name) と引数 (args) を抽出します。
  4. 適切な関数の呼び出し: 抽出した関数名に基づいて、事前に定義しておいた実際の関数(API呼び出しを行うコードなど)を実行します。引数として、抽出したargsを渡します。
  5. 関数の実行結果の取得: 外部APIなどから結果を受け取ります。
  6. 結果をモデルに返送(Optional지만 권장): 取得した関数実行結果を、新しいユーザーメッセージとしてモデルに送り返します。この際、メッセージには関数呼び出しの結果が含まれていることを示す特別な形式(例: tool_responseパート)を使用します。
  7. モデルからの最終応答取得: モデルは、関数実行結果を踏まえて、ユーザーに対する最終的な応答(自然な言葉での回答など)を生成します。

Google AI StudioでのFunction Callingの設計は、この一連の流れの最初のステップ(ツール定義と、そのツールを呼び出すためのモデルの応答生成のテスト)に焦点を当てています。

6.5 具体的なFunction Callingのユースケース

  • ショッピングアシスタント: 商品検索、在庫確認、価格比較などのツールを定義し、ユーザーの質問に基づいて適切な商品を提案する。
  • 旅行プランナー: 航空券検索、ホテル予約、観光情報取得などのツールを定義し、ユーザーの旅行計画をサポートする。
  • データ分析ツール: データベース検索、グラフ生成、統計計算などのツールを定義し、ユーザーのデータに関する質問に答える。
  • スマートホーム連携: 照明のオンオフ、温度調整、家電操作などのツールを定義し、音声コマンドなどで操作できるようにする。
  • 社内情報システム: 社員情報検索、会議室予約、ドキュメント検索などのツールを定義し、業務効率化を図る。

Function Callingをマスターすることで、AIモデルの能力を単なるテキスト生成にとどまらず、外部システムと連携する強力なエージェントへと進化させることができます。Google AI Studioは、その第一歩を容易にするための優れた環境を提供します。

第7章:実践ステップ – プロンプトの保存と共有

作成したプロンプトは、Google AI Studio内に保存したり、他のユーザーと共有したり、API利用のためのコードとしてエクスポートしたりすることができます。

7.1 作成したプロンプトの保存方法

プロンプト編集画面の左上にある「Save」ボタンをクリックするだけで、現在のプロンプトの状態を保存できます。保存時には、プロンプトに分かりやすい名前を付けることができます。

保存されたプロンプトは、Google AI Studioのホーム画面または左側のメニューにある「Saved Prompts」セクションからいつでもアクセスできます。

7.2 バージョン管理機能の活用

Google AI Studioは、プロンプトを保存するたびに新しいバージョンとして履歴を記録します。これにより、過去に保存したバージョンに戻したり、異なるバージョンのプロンプトを比較したりすることができます。

「Saved Prompts」セクションで特定のプロンプトを選択すると、そのプロンプトの保存履歴が表示されます。各履歴をクリックすることで、その時点のプロンプトの状態(入力、設定、モデルの応答)を確認できます。これにより、プロンプトエンジニアリングの試行錯誤の過程を追跡し、どの変更がどのような結果をもたらしたかを把握できます。

7.3 他のユーザーとの共有方法

プロンプトの共有機能は、チームでの共同作業や、作成したプロンプトを他の人に見てもらう際に便利です。

「Saved Prompts」セクションで共有したいプロンプトを選択し、共有オプション(例: 「Share」ボタンやメニュー)を探します。通常、共有用のリンクが生成されます。このリンクを知っている人だけがプロンプトを閲覧できるようになります。組織によっては、組織内の特定のメンバーと共有するオプションも利用できる場合があります。

共有されたプロンプトは、受け取った側が自分のGoogle AI Studio環境で開き、内容を確認したり、複製して自分のプロンプトとして編集・保存したりすることができます。

7.4 API利用のためのエクスポート

Google AI Studioで十分にテストし、期待通りの応答が得られるようになったプロンプトは、実際のアプリケーションに組み込むためにAPI呼び出しのコードとしてエクスポートできます。

プロンプト編集画面の右側パネルに「Get code」や「API code」といったボタンがあります。これをクリックすると、現在開いているプロンプトの設定(プロンプトテキスト、モデル選択、パラメータ、Function Callingの定義など)を再現するためのコードスニペットが、様々なプログラミング言語(Python, Node.js, Go, cURLなど)で表示されます。

このコードスニペットをコピーして、あなたのアプリケーションコードに貼り付けることで、Google AI Studioで開発したプロンプトを、プログラムからGeminiモデルを呼び出す際にそのまま利用できます。これは、AI Studioでプロトタイピングした内容を、迅速に開発プロセスに移行するための非常に便利な機能です。

第8章:Google AI StudioとVertex AIの連携

Google AI Studioはプロトタイピングに最適ですが、本番環境でAIモデルを運用するには、より堅牢なプラットフォームが必要です。そこで登場するのが、Google CloudのVertex AIです。

8.1 AI StudioでプロトタイピングしたプロンプトをVertex AIで本番環境にデプロイする方法

Google AI Studioで作成したプロンプトをVertex AIで利用する主な流れは以下の通りです。

  1. AI Studioでプロンプトを開発: Google AI Studioの直感的なインターフェースを使用して、テキストプロンプト、マルチモーダルプロンプト、Function Callingなどを組み合わせ、期待通りの応答が得られるまでプロンプトをテスト・調整します。
  2. APIコードをエクスポート: プロンプト編集画面から、利用するプログラミング言語のAPIコードスニペットをエクスポートします。
  3. Google Cloudプロジェクトの準備: Vertex AIを利用するためのGoogle Cloudプロジェクトを用意します。必要に応じて課金設定を行います。
  4. アプリケーションコードの開発: エクスポートしたコードスニペットを参考に、あなたのアプリケーション(例: ウェブアプリケーションのバックエンド、モバイルアプリ、バッチ処理スクリプトなど)にGeminiモデルを呼び出すためのコードを組み込みます。このコードは、Vertex AIのGenerative AI APIエンドポイントをターゲットとします。
  5. Vertex AI APIの有効化: Google CloudプロジェクトでVertex AI APIを有効化します。
  6. 認証情報の設定: アプリケーションがVertex AI APIを呼び出すための認証情報(サービスアカウントキーなど)を設定します。
  7. アプリケーションのデプロイ: 開発したアプリケーションコードを、Compute Engine, GKE, Cloud Run, Cloud FunctionsなどのGoogle Cloudサービスにデプロイします。

8.2 Vertex AIの利点(スケーラビリティ、MaaS、MLOps)

Vertex AIでAIモデルを運用することには、AI Studio単体での利用にはない多くの利点があります。

  • スケーラビリティ: Vertex AIはGoogle Cloudのインフラ上で動作するため、トラフィックの増加に応じて自動的にスケーリングできます。多数のユーザーからの同時リクエストにも対応可能です。
  • MaaS (Model as a Service): Googleの提供する基盤モデル(Geminiを含む)を、マネージドなAPIとして利用できます。インフラ管理やモデルのホスティングについて心配する必要はありません。
  • MLOps機能: モデルのデプロイ、バージョン管理、モニタリング、自動スケーリング、セキュリティ設定など、機械学習モデルを本番環境で安定して運用するための包括的な機能(MLOps)が提供されます。
  • セキュリティと権限管理: IAM(Identity and Access Management)を利用して、誰がどのリソース(モデル、エンドポイントなど)にアクセスできるかを細かく制御できます。
  • 他のGoogle Cloudサービスとの連携: データベース、データウェアハウス、分析ツールなど、他のGoogle Cloudサービスと容易に連携できます。
  • 費用管理: 利用量に基づいた従量課金となり、詳細な利用レポートを確認できます。

8.3 連携の手順概要

AI StudioからVertex AIへの連携は、技術的には「AI Studioでプロンプト構成を決め、その設定を再現するAPI呼び出しコードを生成し、そのコードをVertex AI経由でモデルを呼び出すアプリケーションに組み込む」という流れになります。

Google AI Studioで「Get code」からコードを取得する際に、そのコードがVertex AIのエンドポイントを呼び出す形式になっていることを確認します。Vertex AI側の設定としては、適切なGoogle Cloudプロジェクトを選択し、Vertex AI APIが有効化されていること、そして呼び出し元アプリケーションが必要なIAM権限を持っていることが主な要件となります。

より高度なVertex AIの利用(例: マネージドエンドポイントの作成、バッチ推論)については、Vertex AIの公式ドキュメントを参照してください。Google AI Studioはあくまでプロトタイピングのためのツールであり、本格的なアプリケーション開発・運用はVertex AI上で行うという役割分担を理解しておくことが重要です。

第9章:トラブルシューティングとよくある質問

Google AI Studioを使っている際に遭遇する可能性のある問題や、よくある質問について解説します。

9.1 APIキーの問題

  • APIキーが見つからない/思い出せない: APIキーは生成時に一度だけ表示されます。コピーを忘れた場合は、既存のキーを再表示することはできません。Google AI Studioの設定画面から新しいAPIキーを生成してください。古いキーは無効になるため、新しいキーに置き換える必要があります。
  • APIキーが無効と表示される:
    • キーが正しくコピー&ペーストされているか確認してください。余分な空白文字などが入っていないか注意してください。
    • キーが関連付けられているGoogle Cloudプロジェクトで、Vertex AI APIが有効化されているか確認してください。
    • プロジェクトに課金設定が必要な場合(無料枠を超えた利用など)、課金設定が正しく行われているか確認してください。
    • キーが削除されていないか、または無効化されていないか確認してください。
  • 「Quota exceeded」エラー: 無料枠の上限に達した場合に表示されます。利用を継続するには、関連付けられたGoogle Cloudプロジェクトで課金設定を行い、無料枠を超えた利用に対する支払いを有効にする必要があります。
  • 「Permission denied」エラー: Google CloudプロジェクトまたはAPIキーに関連付けられたアカウントに、モデルを呼び出すための適切な権限がない場合に発生します。プロジェクトのIAM設定を確認し、必要な権限が付与されているか確認してください。

9.2 モデルのレスポンスが期待と違う場合

  • プロンプトが不明確: モデルの応答が意図と異なる最も一般的な原因は、プロンプトが曖昧であることです。第4章で解説した効果的なプロンプト記述のコツ(明確性、具体性、制約、例示など)を見直してください。
  • システム指示が不足: モデルにどのような役割を担わせたいか、どのようなスタイルで応答してほしいかが明確でない場合、一般的な、あるいは予測不能な応答をする可能性があります。システム指示を具体的に記述してみてください。
  • パラメータ設定: Temperatureが高すぎると応答がランダムになりすぎ、低すぎると創造性が失われることがあります。Max output tokensが不足していると、応答が途中で切れてしまうことがあります。パラメータを調整して、最適な設定を見つけてください。
  • モデルの能力の限界: LLMやマルチモーダルモデルにも限界があります。高度な推論、複雑な計算、最新かつニッチな情報の正確な把握などが難しい場合があります。モデルの能力で対応できるタスクであるかを確認してください。
  • バイアス: モデルは学習データに由来するバイアスを含む可能性があります。特定の入力に対して偏った応答をする場合は、プロンプトでより中立的な視点を指示したり、バイアスを取り除くための制約を加えたりすることを検討してください。
  • モデルのバージョン: 使用しているモデルのバージョンによって、性能や挙動が異なる場合があります。最新のモデルを使用しているか確認してください。

9.3 料金に関する疑問

  • 無料枠の確認: 現在の無料枠の使用状況は、Google Cloudの利用料金レポートや、特定のAPI使用状況ダッシュボードで確認できます。
  • 料金体系: モデルの種類(Gemini Pro, Gemini Vision Proなど)、入力の形式(テキスト、画像など)、入力・出力のトークン数、Function Callingの利用などによって料金が異なります。Google Cloudの公式料金ページで詳細を確認してください。
  • 予期せぬ請求: 開発中の予期せぬループや高頻度なAPI呼び出しなどにより、利用量が急増し、請求額が高くなることがあります。開発中は利用量をこまめに確認し、必要に応じてAPI呼び出しのレート制限などを設定することを検討してください。Vertex AIではより詳細なモニタリングやアラート設定が可能です。

9.4 サポートへの問い合わせ方法

  • ドキュメントの確認: 多くの疑問や問題は、Google AI StudioやVertex AIの公式ドキュメントに記載されています。まずドキュメントを検索してみてください。
  • コミュニティフォーラム: Google Cloudや生成AIに関するコミュニティフォーラムで質問したり、他のユーザーの質問を参考にしたりできます。
  • Google Cloudサポート: 有料サポート契約がある場合、Google Cloudのサポートチームに直接問い合わせることができます。無料利用枠の場合はサポートレベルが限定されることがあります。

第10章:より高度な使い方と今後の展望

Google AI Studioは進化を続けており、その機能は今後さらに拡充される可能性があります。ここでは、現状でのより高度な使い方や、将来的に期待される機能について触れます。

10.1 バッチ処理、ファインチューニング(Vertex AIとの連携)

Google AI Studio自体はインタラクティブなプロトタイピングツールであるため、大量のデータを一度に処理するバッチ処理や、特定のタスク向けにモデルをさらに学習させるファインチューニング機能は直接提供されていません。しかし、これらの高度なタスクはVertex AIを利用することで実現できます。

  • バッチ処理: AI Studioで開発したプロンプトを使用して、Vertex AIのバッチ推論機能を利用することで、大量の入力データに対して効率的にモデルの推論を実行できます。
  • ファインチューニング: 特定のドメインやタスクに対してモデルの精度を高めたい場合、独自のデータセットを使ってVertex AI上でモデルのファインチューニングを行うことができます。AI Studioでファインチューニング後のモデルを試すことが可能になるかもしれません。

10.2 エージェント的な振る舞いの実現

Function Calling機能などを組み合わせることで、AIモデルに複数のステップを踏んでタスクを完了させる「エージェント」的な振る舞いを実現できます。Google AI Studioは、そのようなエージェントの思考プロセスやツール活用のロジックを設計・テストするための基盤を提供します。

例えば、ユーザーの複雑な要求に対して、モデルがFunction Callingで情報を取得し、その情報を元にさらに思考を進め、必要であれば別のツールを呼び出し、最終的な結論やアクションを導き出す、といった一連の流れをプロンプト設計で制御します。

10.3 今後のアップデートで期待される機能

Google AI Studioは比較的新しいサービスであり、今後も頻繁なアップデートが予想されます。以下のような機能拡充が期待されます。

  • 音声・動画モダリティへの対応: 現在はテキストと画像が中心ですが、Geminiモデルは音声や動画も理解できる能力を持っています。AI Studioで音声や動画を直接アップロードしてプロンプトに含められるようになるかもしれません。
  • データコネクタの拡充: Google Drive, BigQuery, Firestoreなど、他のGoogle Cloudサービスや外部データソースとのより簡単な連携機能が追加される可能性があります。
  • 高度なプロンプトエンジニアリング機能: より洗練されたプロンプトテンプレート、プロンプトの効果を比較・評価するためのツール、自動的なプロンプト改善提案機能などが追加されるかもしれません。
  • チームコラボレーション機能の強化: より柔軟な共有設定、共同編集機能、レビューワークフローなど、チームでの開発を支援する機能が強化される可能性があります。
  • 特定のタスクに特化したテンプレート: 要約、翻訳、コード生成、Q&Aなど、一般的なタスクに特化したプロンプトテンプレートが豊富に提供されることで、初心者でもすぐに始めやすくなるでしょう。

これらの機能拡充により、Google AI Studioはさらに強力で使いやすいAI開発ツールへと進化していくと考えられます。

第11章:まとめ

本記事では、最新版Google AI Studioの始め方から、主要機能、そして実践的な使い方まで、詳細に解説しました。Google AI Studioは、複雑な環境構築や高度なプログラミングスキルなしに、Googleが提供する最先端のGeminiモデルの能力を最大限に引き出すための強力なツールです。

この記事で学んだこと:

  • Google AI Studioが、AIモデルのプロトタイピングとプロンプトエンジニアリングのためのローコード/ノーコード環境であること。
  • Geminiファミリーモデルとの緊密な連携により、テキストだけでなくマルチモーダルなタスクも扱えること。
  • 最新版のUI/UXの改善点、強化されたプロンプト機能(テキスト、マルチモーダル)、Function Callingの仕組みと設計方法。
  • APIキーの取得方法や無料枠・有料枠に関する情報。
  • 効果的なテキストプロンプトを作成するための構造とコツ。
  • 画像とテキストを組み合わせたマルチモーダルプロンプトの実践方法。
  • Function Callingを活用してAIモデルを外部ツールと連携させる方法。
  • プロンプトの保存、バージョン管理、共有、そしてAPI利用のためのエクスポート方法。
  • Google AI Studioでプロトタイプを作成したプロンプトを、Vertex AIで本番環境にデプロイする流れ。
  • よくある問題とそのトラブルシューティング方法。
  • 今後の機能拡充で期待される展望。

Google AI Studioを活用することで、あなたはAIモデルを使った新しいアイデアを迅速に形にし、その可能性を探求することができます。これは、開発者だけでなく、デザイナー、マーケター、コンテンツクリエイターなど、あらゆる分野の人々にとって、AI技術を自身のワークフローや創造プロセスに取り入れる大きなチャンスとなります。

さあ、この記事で得た知識を元に、最新版Google AI Studioの世界に飛び込んでみましょう。プロンプトエンジニアリングの楽しさを体験し、あなたのアイデアをAIの力で実現させてください。未来のAIアプリケーションは、あなたの手から生まれるかもしれません。

コメントする

メールアドレスが公開されることはありません。 が付いている欄は必須項目です

上部へスクロール