生成AIトークンとは?仕組みと料金計算の実践的入門ガイド

 
 

この記事でわかること

  • 生成AIにおけるトークンとその重要性
  • トークンの計算方法と料金の仕組み
  • トークン化のメカニズム
  • トークン効率を改善するテクニック
谷田 朋貴

監修者プロフィール

谷田 朋貴

一橋大学卒業後、伊藤忠丸紅鉄鋼株式会社、Web専業広告代理店を経て、株式会社電通デジタルに入社。国内大手クライアントに対して、デジタル全体のプロモーション施策の戦略立案・実行に従事。また、生成AIを活用した自社業務の効率化にも取り組む。2023年12月、生成AIを活用した業務効率化支援を行う株式会社アドカルを創業。

ChatGPTやClaudeなどの生成AIを活用する際に必ず出てくる「トークン」という概念。このトークン数がAIの処理能力やコストに直結しているにもかかわらず、具体的な仕組みや計算方法を理解している方は意外と少ないのではないでしょうか?

本記事では、生成AIのトークンとは何か、どのように計算されるのか、そして効率的に活用するためのテクニックまで初心者にもわかりやすく解説します。適切なトークン管理によって、コスト削減と生成AIの能力を最大限に引き出す方法を身につけましょう。

無料資料配布中
サービス詳細を無料でダウンロード!
生成AI研修・コンサルティング・開発サービスの内容と特徴を詳しく解説
導入事例と実績を具体的に紹介
導入フローを分かりやすく説明
10秒で資料請求!
無料で資料をダウンロード →

*資料請求後、担当よりご連絡いたします

目次

生成AIトークンとは?初心者向け基本解説

生成AIを活用する上で避けては通れないのが「トークン」という概念です。

トークンは生成AIのコスト計算や性能の指標となる重要な要素ですが、初めて聞く方には少しわかりにくいかもしれません。

ここでは、トークンの基本的な概念から各AIサービスの特徴まで、初心者の方にもわかりやすく解説します。

トークンの定義:AIが処理する言語の最小単位

トークンとは、生成AIが言語を処理する際の基本単位です。人間が文章を単語や文字で理解するように、AIはトークンという単位で言語を理解します。

例えば「これは素晴らしい記事です」という文は、「これ」「は」「素晴らしい」「記事」「です」のようにトークンに分割されます。

英語では多くの場合、1単語が1トークンになりますが、日本語や中国語などの言語では、1文字が複数のトークンに分割されることがあります。トークン化の方法はAIモデルによって異なり、同じ文章でも異なるトークン数になることがあります。

このトークン化により、AIは膨大な言語データを効率的に処理できるのです。

なぜトークン数が重要なのか?コストと処理能力の関係

トークン数が重要な理由は主に二つあります。一つ目は「コスト」です。多くの生成AIサービスは、処理するトークン数に応じて料金を設定しています。例えば、OpenAIのGPT-4では、入力(プロンプト)のトークン数と出力(回答)のトークン数に応じて課金されます。

二つ目は「処理能力」です。AIモデルには「コンテキストウィンドウ」と呼ばれる、一度に処理できるトークン数の上限があります。

この上限を超えると、AIは文脈の最初の部分を「忘れて」しまいます。そのため、長文の要約や複雑な会話を行う場合は、トークン数の制限を意識する必要があるのです。

各種AI(ChatGPT・Claude・Gemini)のトークン特性

主要な生成AIサービスには、それぞれトークン処理の特徴があります。OpenAIのChatGPT(GPT-3.5/GPT-4)は、BPE(Byte-Pair Encoding)と呼ばれる方式でトークン化を行い、モデルによって4,000〜128,000トークンのコンテキストウィンドウを持っています。

AnthropicのClaudeは、最大で100,000トークン以上の長い文脈を処理できる点が特徴で、長文の分析や要約に強みがあります。一方、GoogleのGeminiは、SentencePieceベースのトークナイザーを採用し、最大32,000トークンを処理可能です。

日本語の処理効率は各モデルで異なりますが、一般的に英語よりも多くのトークンを消費する傾向があります。そのため、日本語でAIを活用する際は、英語より高いコストがかかることを念頭に置く必要があるでしょう。

無料資料配布中
サービス詳細を無料でダウンロード!
生成AI研修・コンサルティング・開発サービスの内容と特徴を詳しく解説
導入事例と実績を具体的に紹介
導入フローを分かりやすく説明
10秒で資料請求!
無料で資料をダウンロード →

*資料請求後、担当よりご連絡いたします

生成AIトークンの計算方法と料金の仕組み

生成AIを実際に利用する際、トークン数がどのように計算され、料金に反映されるのかを理解することは非常に重要です。言語によるトークン数の違いや、様々なデータタイプのトークン換算、さらには便利な計測ツールについて解説します。

これらの知識は、生成AIを効率的に活用し、コストを適切に管理するための基盤となります。

言語別トークン計算法:日本語と英語の料金効率の違い

トークン数の計算は言語によって大きく異なります。

英語では一般的に1単語が約1.3トークンとされており、よく使われる単語は1トークンで処理されることが多いです。例えば”Hello world”は2トークンになります。

一方、日本語は1文字あたり平均2トークン程度を消費し、特に漢字はより多くのトークンを必要とします。例えば「こんにちは世界」は、「こんにちは」で3トークン、「世界」で3トークンの計6トークンとなることがあります。

つまり、同じ内容を表現する場合、日本語は英語の約2倍のトークンを消費する傾向があるのです。

この違いは料金に直結します。例えば、英語と日本語で同じ文章量を処理する場合、日本語の方が約2倍のコストがかかる可能性があります。

国際的なビジネスでは、この言語間のトークン効率の差を考慮した予算計画が必要でしょう。

多様なデータのトークン換算率:画像・音声・コードの料金計算

生成AIは文字だけでなく、様々なデータ形式を処理できますが、それぞれトークン換算率が異なります。画像の場合、GPT-4 Visionなどのモデルでは、解像度によって大きく異なり、低解像度で約85トークン、高解像度では8,000トークン以上消費することもあります。

音声データはWhisperなどの音声認識モデルを通じてテキストに変換され、一般的に1分あたり約150-200トークン程度になります。長時間の音声データ処理は予想以上にトークンを消費する可能性があるため注意が必要です。

プログラミングコードは言語によって異なりますが、シンタックスハイライトやインデントなどの特殊文字も含めて計算されます。特にコメントが多いコードはトークン消費が増加します。またPDFファイルは、1ページあたり約500-1000トークンが目安ですが、画像やグラフが含まれるとさらに多くなります。

トークン数と費用の見積り:5つの便利ツールと活用法

トークン数を正確に把握するために、いくつかの便利なツールが提供されています。以下に代表的な5つのツールとその活用法を紹介します。

OpenAI Tokenizer:OpenAIの公式ツールで、GPTシリーズのトークン数を正確に計測できます。プロンプトの最適化や料金見積もりに最適です。使い方は簡単で、テキストを入力するだけでトークン数が表示されます。

GPTTokenizer.com:複数のモデルに対応したブラウザベースのツールです。異なるモデル間でのトークン数の違いを比較でき、APIキーなしで利用可能なのが特徴です。プロンプトのテスト段階で活用すると効果的です。

Anthropic Token Counter:Claude専用のトークンカウンターで、Anthropicのモデル特有のトークン計算に対応しています。Claudeを利用する際の正確な見積もりが可能です。

LLM Token Calculator:複数のモデルの料金とトークン数を一度に比較できるツールです。プロジェクトの予算計画や最適なモデル選択に役立ちます。月間の利用予測量を入力することで、コスト比較ができる機能も便利です。

Azure OpenAI Studio:Microsoft Azureでの生成AI利用に特化したツールで、Azureプラットフォーム上でのトークン数と料金を正確に測定できます。企業での大規模導入を検討する際に特に有用です。

これらのツールを活用することで、プロジェクトの規模に応じたトークン数の予測と費用見積りが可能になり、予算オーバーを防ぐことができます。特に大規模なAIプロジェクトでは、事前のトークン数シミュレーションが不可欠です。

無料資料配布中
サービス詳細を無料でダウンロード!
生成AI研修・コンサルティング・開発サービスの内容と特徴を詳しく解説
導入事例と実績を具体的に紹介
導入フローを分かりやすく説明
10秒で資料請求!
無料で資料をダウンロード →

*資料請求後、担当よりご連絡いたします

主要生成AIサービスのトークン料金比較

生成AIを本格的に導入する際、各サービスのトークン料金を比較検討することは非常に重要です。OpenAI、Anthropic、Googleなどの主要プロバイダーはそれぞれ独自の料金体系を持っており、用途や予算に応じて最適なサービスを選ぶ必要があります。

ここでは、主要サービスの最新料金情報と特徴を比較し、コスト効率の良い選択をサポートします。

OpenAI(GPTシリーズ)の料金体系と特徴

OpenAIのGPTシリーズは、性能と価格のバランスが取れたモデルを複数提供しています。

最新のGPT-4.1は、複雑なタスクに最適な高性能モデルで、入力が100万トークンあたり$2.00、出力が$8.00。軽量なGPT-4.1 miniは入力が100万トークンあたり$0.4.0、出力が$1.60です。最軽量のnanoでは100万トークンあたり$0.1.0、出力が$0.40でタスクの重要度によって切り替えて使うち良いでしょう。

さらに、高度な推論に特化したo3系モデルや、各モデルをカスタマイズできるファインチューニング機能も提供されており、特定のユースケースに合わせた最適化が可能です。

OpenAIは最も広く利用されているサービスであり、多くの開発ツールやライブラリが対応している点も魅力です。

Anthropic(Claude)のトークン単価と制限

AnthropicのClaudeシリーズは、長文理解と安全性に優れたモデルとして知られています。最高性能のClaude Opus 4は、入力が100万トークンあたり$15、出力が$75と高めの設定ですが、その分、複雑な推論能力に優れています。中間モデルのClaude Sonnet 4は入力$3/100万トークン、出力$15/100万トークンで、バランスの取れた選択肢です。

最も軽量なClaude Haiku 3.5は入力$0.80/100万トークン、出力$4/100万トークンと経済的です。Claudeの大きな特徴は最大200Kトークンという広い文脈窓を持つ点で、長文書類の分析や要約に適しています。

また、Microsoft Azureを通じて企業向けに提供されているため、既存のAzure環境との統合が容易である点も魅力です。

Google(Gemini)の価格設定とコスパ分析

GoogleのGeminiは、コストパフォーマンスに優れたAIサービスとして注目を集めています。

Gemini 1.5 Flashは入力が1,000トークンあたり$0.00035、出力が$0.0006と、主要サービスの中で最も低価格です。高性能なGemini 1.5 Proでも入力$0.0035/1,000トークン、出力$0.0105/1,000トークンと、同等性能の他サービスと比較して経済的です。

Gemini 1.5 Flashの文脈窓は最大128Kトークンで、中程度の長さの文書処理に適しています。Google Cloudとの統合が進んでおり、既存のGoogle環境を利用している企業には特に便利です。コスト効率を重視する企業や、基本的な生成AI機能を低コストで導入したいケースに適しており、特に入力トークンの料金が安いため、大量のデータ処理に向いています。

国産AI・その他サービスのトークン料金動向

国内外には他にも多くの生成AIサービスが存在します。日本のRINNAは日本語処理に特化したモデルを提供しており、トークン単価は約$0.0003~0.002/1,000トークンと、用途によって幅があります。日本語の文脈理解に優れている点が特徴ですが、文脈窓は比較的小さめです。

画像生成に特化したStability AIは、テキスト入力に対して約$0.002/1,000トークンの料金設定で、テキストから画像生成のユースケースに適しています。Cohereは入力$1/100万トークン、出力$2/100万トークンと中程度の価格帯で、特にエンタープライズ向けのカスタマイズ性に優れています。

国産AIサービスは日本語処理の精度が高い反面、トークン単価は国際サービスより高い傾向があります。

多くのサービスが従量課金制とサブスクリプション制を併用しており、利用規模や頻度に応じて最適なプランを選択できるようになっています。産業特化型のAIサービスも増えており、特定業界向けの最適化されたソリューションも検討の価値があるでしょう。

無料資料配布中
サービス詳細を無料でダウンロード!
生成AI研修・コンサルティング・開発サービスの内容と特徴を詳しく解説
導入事例と実績を具体的に紹介
導入フローを分かりやすく説明
10秒で資料請求!
無料で資料をダウンロード →

*資料請求後、担当よりご連絡いたします

トークン化のメカニズム:AIの言語処理技術

生成AIがどのようにテキストを処理しているのか、その内部メカニズムを理解することで、より効率的な利用が可能になります。トークン化の技術的な側面に焦点を当て、主要な手法であるBPE、様々なトークナイザーの特徴、そして文脈窓の概念について解説します。

これらの知識は、AIモデルの選択や利用方法を最適化するための基盤となるでしょう。

BPE(Byte-Pair Encoding)の仕組みとメリット

BPE(Byte-Pair Encoding)は、OpenAIのGPTシリーズをはじめとする多くの生成AIモデルで採用されているトークン化の手法です。この手法は、テキスト内で最も頻繁に出現する文字のペアを反復的に組み合わせていくことで、効率的なトークン化を実現します。

例えば、英単語の「playing」をトークン化する場合、BPEは「play」と「ing」のように意味のある単位に分割することがあります。これにより、モデルは「play」の概念と「ing」という進行形の概念を別々に学習でき、「playing」という単語を見たことがなくても、「dancing」などの類似構造を持つ単語を理解できるようになります。

BPEの最大のメリットは、未知の単語や造語にも対応できる柔軟性です。トレーニングデータに存在しない単語でも、既知の部分トークンに分解して処理できるため、語彙の制限を超えた理解が可能になります。これが生成AIの語彙力と適応性の源となっています。

トークナイザーの種類と各モデルの違い

生成AIモデルによって採用されるトークナイザーには複数の種類があり、それぞれ特徴が異なります。

GPTシリーズで使われるTokenizerはBPEをベースにしており、英語に最適化されています。GoogleのGeminiで採用されているSentencePieceは、言語に依存しないトークン化が可能で、特に日本語や中国語などの分かち書きのない言語に対して比較的効率的です。

BERTなどで使用されるWordPieceは、単語を意味のある単位に分割する点でBPEと類似していますが、分割アルゴリズムが異なります。モデルごとにトレーニングされた独自の語彙(ボキャブラリー)を持っており、同じテキストでもモデルによってトークン数が異なる主な理由はここにあります。

例えば「生成AI」というフレーズは、GPT-4では4トークン程度になることがありますが、日本語に最適化されたトークナイザーでは2-3トークン程度になることもあります。モデル選択の際はこの違いを考慮することが重要です。

文脈窓(コンテキストウィンドウ)とトークン制限の関係

文脈窓(コンテキストウィンドウ)とは、AIモデルが一度に処理できるトークン数の上限を指します。この上限はモデルによって大きく異なり、例えばGPT-3.5は16Kトークン、GPT-4は8K〜32Kトークン、Claudeは最大200Kトークンの文脈窓を持っています。

この制限は、長文の処理や複雑な会話において重要な意味を持ちます。例えば、200ページの文書を要約する場合、コンテキストウィンドウが小さいモデルでは一度に全体を処理できず、分割して処理する必要があります。

コンテキストウィンドウを超えたトークンは「忘れられ」、モデルの回答に反映されなくなるため注意が必要です。

コンテキストウィンドウの大きさはモデルのメモリ使用量とコストに直結しており、大きなコンテキストウィンドウを持つモデルほど高価になる傾向があります。用途に応じて適切な文脈窓を持つモデルを選択することが、パフォーマンスとコストのバランスを取る上で重要です。長文処理が必要ない場合は、小さなコンテキストウィンドウのモデルを選択することでコストを抑えられます。

無料資料配布中
サービス詳細を無料でダウンロード!
生成AI研修・コンサルティング・開発サービスの内容と特徴を詳しく解説
導入事例と実績を具体的に紹介
導入フローを分かりやすく説明
10秒で資料請求!
無料で資料をダウンロード →

*資料請求後、担当よりご連絡いたします

生成AIトークン効率を改善するテクニック

生成AIを導入する際、トークンの最適化は運用コストと性能の両面で大きな影響を与えます。適切な最適化技術を適用することで、同じ予算でより多くの価値を引き出したり、同等の結果をより低コストで得られるようになります。

ここでは、企業の実務で活用できる具体的なトークン最適化テクニックを4つの側面から解説します。

これらの手法を組み合わせることで、生成AIの導入効果を最大化することができるでしょう。

プロンプト最適化技術:簡潔な指示で結果を向上させる方法

プロンプト最適化は、トークン効率を高める最も基本的かつ効果的な方法です。冗長な表現や不要な情報を削除し、簡潔で明確な指示を心がけることで、入力トークン数を大幅に削減できます。例えば「詳細な情報を提供していただけませんか?」よりも「詳細を説明」の方がトークン効率が良いのです。

具体的な最適化手法として、重要な指示を最初に配置し、コンテキストは必要最小限にとどめることが挙げられます。また、「ステップバイステップで」や「簡潔に」などの明確な指示キーワードを活用すると、AIの回答がより的確になり、余分なトークンの消費を抑えられます。

プロンプトテンプレートの活用も効果的です。定型的なタスクに対して最適化されたテンプレートを作成しておくことで、毎回の指示を効率化できます。例えば「顧客データを分析し、{フォーマット}で{分析ポイント}について要約」というテンプレートを用意しておけば、具体的な値だけを変更するだけで済みます。

さらに、期待する出力の例をプロンプトに含めると、AIがより正確に意図を理解するため、やり直しが減少し、結果的にトークン消費が抑えられます。特に複雑なフォーマットや特殊な回答形式を求める場合に有効です。

言語とフォーマットの最適化:効率的なトークン使用の戦略

言語とデータフォーマットの選択もトークン効率に大きく影響します。最も顕著な例は言語選択で、日本語よりも英語の方がトークン効率が良いことが知られています。同じ内容を表現する場合、英語は日本語の約半分のトークン数で済むことがあります。

そのため、社内文書や技術的な内容など、言語を選択できる場面では英語を使用することでコストを削減できます。

データ形式の選択も重要です。テキストデータを扱う場合、構造化された形式(JSON、CSV、YAML)を活用すると、情報の密度が高まり、トークン効率が向上します。例えば「ユーザー名はJohn、年齢は30歳、職業はエンジニア」よりも、{“name”:”John”, “age”:30, “job”:”engineer”}の方がトークン効率が良くなることがあります。

マークダウン形式の活用も効果的です。見出しや箇条書きを使って情報を整理することで、長文のパラグラフよりもトークン数を削減できます。特に大量のデータを扱う際は、表形式で情報をまとめると効率的です。

画像データを扱う場合は、解像度とサイズの最適化が重要です。

GPT-4 Visionなどのマルチモーダルモデルでは、高解像度画像は低解像度画像の数倍のトークンを消費します。

必要な視覚情報だけを含むよう画像をトリミングし、適切な解像度に最適化することで、大幅なトークン削減が可能です。

モデル調整の最適化:ファインチューニングでトークン効率を高める

例えば、顧客問い合わせの分類タスクでは、ファインチューニング前に200トークンの説明が必要だったものが、調整後は20トークン程度の簡潔な指示で同等の結果を得られるようになります。

タスクの複雑さに応じたモデル選択も重要です。簡単なタスクには小規模なモデル(GPT-3.5やClaude Haikuなど)を使用し、複雑なタスクのみ高性能モデル(GPT-4やClaude Opusなど)を使うことで、全体のコストを最適化できます。

例えば、テキストの初期処理や分類には軽量モデルを使い、深い理解や創造的な生成が必要な場合のみ高性能モデルを使用する「段階的アプローチ」が効果的です。

バッチ処理の活用も有効な戦略です。複数のクエリを一括で処理することで、APIリクエストの回数を減らし、オーバーヘッドを削減できます。例えば、100件の短い質問を個別に処理するよりも、一度にまとめて処理する方がトークン効率とコスト効率の両方で優れていることがあります。

また、temperature(創造性)やtop_p(多様性)などのパラメータ調整も効果的です。簡潔な回答が必要な場合はtemperatureを低く設定することで、無駄なトークンを削減できます。

ファインチューニングについては下記の記事もご覧ください。

コスト最適化戦略:企業向けトークン使用量の削減テクニック

企業での大規模導入においては、システム全体でのコスト最適化戦略が重要です。最も効果的な手法の一つがキャッシング機能の実装です。同じまたは類似のクエリに対する回答をキャッシュしておき、再利用することで、重複したAPIリクエストを削減できます。よくある質問や定型的な処理に対して特に有効で、大規模システムでは30-50%のコスト削減も可能です。

また、APIの使用状況をリアルタイムでモニタリングし、異常な使用パターンや無駄な呼び出しを検出するシステムを構築することも重要です。例えば、特定のユーザーやアプリケーションが過剰にAPIを呼び出している場合、制限を設けたり、最適化を促したりすることでコストを管理できます。

エンタープライズ規模では、バルク割引プランの活用も検討すべきです。多くのAIプロバイダーは大量利用に対して割引プランを提供しており、事前に使用量を予測して契約することでコストを削減できます。例えば、OpenAIの場合、一定額の前払いで追加クレジットが付与されるプランがあります。

利用頻度が非常に高く、専門的なタスクが中心の場合は、オープンソースモデルのセルフホスティングも選択肢となります。

初期投資とメンテナンスコストは発生しますが、長期的には大幅なコスト削減につながる可能性があります。

特に機密性の高いデータを扱う場合や、安定したレイテンシーが求められる場合に適しています。主要なオープンソースモデルには、Llama、Mistral、Falcon、Pythiaなどがあり、企業のニーズに合わせて選択できます。

無料資料配布中
サービス詳細を無料でダウンロード!
生成AI研修・コンサルティング・開発サービスの内容と特徴を詳しく解説
導入事例と実績を具体的に紹介
導入フローを分かりやすく説明
10秒で資料請求!
無料で資料をダウンロード →

*資料請求後、担当よりご連絡いたします

まとめ:生成AIトークンの知識を活かして効率的な活用を

本記事では、生成AIのトークンについて基本概念から最適化テクニックまで解説しました。トークンはAIが言語を処理する最小単位であり、コストと処理能力に直結します。日本語と英語ではトークン効率が異なり、各AIサービスには独自の料金体系があります。

トークン最適化はプロンプトの工夫、言語選定、モデル調整など多角的なアプローチが可能です。

企業導入では、これらの知識を活かしたコスト管理と効果最大化の両立が重要です。まずは小規模なプロジェクトから始め、最適化の効果を測定していくことをお勧めします。

生成AI技術は急速に進化していますが、トークンの基本原理を理解しておくことで、新たなモデルやサービスにも柔軟に対応できます。トークンの知識を武器に、効率的な生成AI活用を実現してください。


【生成AI活用でお困りではないですか?

株式会社アドカルは主に生成AIを活用したマーケティング支援や業務効率化に強みを持った企業です。

貴社のパートナーとして、少数精鋭で担当させていただくので、

「生成AIを業務に活用したい」
「業務効率を改善したい」
「自社の業務に生成AIを取り入れたい」

とお悩みの方は、ぜひ弊社にご相談ください。
貴社のご相談内容に合わせて、最適なご提案をさせていただきます。

サービスの詳細は下記からご確認ください。無料相談も可能です。

Q:トークンとは何ですか?

A: 生成AIがテキストを処理する際の最小単位で、単語や文字を分割して理解するために使われます。

Q:なぜトークン数が重要なのですか?

A: AIの料金はトークン数で決まり、処理可能なトークン数にも制限があるため、コストや精度に直結します。

Q:主要なAIごとのトークン処理の違いは?

A: GPT-4は最大128K、Claudeは200K、Geminiは32Kのトークンを処理可能で、日本語は英語より多くトークンを消費します。

Q:日本語は英語より高コストになるのですか?

A: はい。同じ内容でも日本語は約2倍のトークンを使うため、結果的にコストが高くなります。

Q:画像や音声を使うとどれくらいトークンを消費しますか?

A: 画像は解像度によって85〜8,000以上、音声は1分あたり約150〜200トークンが目安です。

Q:トークン数はどうやって測定するのですか?

A: OpenAI TokenizerやGPTTokenizer.comなどのツールを使えば、入力文のトークン数を簡単に測れます。

Q:トークンの料金はどのサービスが安いですか?

A: 一般的に最安はGemini Pro、次いでGPT-3.5、最も高いのはClaude OpusやGPT-4です。

Q:生成AIのトークン数を減らすには?

A: 短く明確なプロンプト、英語使用、データ形式の最適化、軽量モデルの使い分けなどが有効です。

Q:プロンプト最適化とは何をするのですか?

A: 無駄な言葉を省き、簡潔で明確な指示にすることで、入力トークン数を減らしつつ精度を保ちます。

Q:企業での導入時に注意すべきことは?

A: キャッシュ活用やAPI監視、バルク契約、セルフホスティングなどで全体のコスト最適化が重要です。