ニュース
AWSが語る生成AIの今と未来――価値創出と企業支援の最新動向
2025年6月10日 17:30
アマゾン ウェブ サービス(AWS)が、生成AIに関する取り組みを紹介する記者説明会を開催した。説明会にはAWSジャパンの小林正人氏が登壇し、生成AIの現状や活用に伴う課題、AWSが提供する多面的な支援策について紹介が行われた。
生成AI活用の転換期と、ビジネス価値の追求
AWSでは、2025年が生成AIの活用フェーズにとって重要な節目になるとの見方を示している。これまでは「生成AIを試してみること」を目的とする実証実験が多かったものの、今後はそこから一歩進み、具体的なビジネス価値の創出へと重点が移っていく流れが想定されるという。
アプリケーション開発のプロセスについても、ユースケースの特定を出発点に、チーム体制の構築、期待する成果の定義、モデル選定、責任の取り方、カスタマイズの検討を経て本番稼働に至る、段階的な「ジャーニー」として捉えることが提案された。
活用を成功させる企業には、いくつかの共通した考え方がある。まず重要なのは、ビジネス課題を出発点にゴールを設定し、その目標をできる限り数値化しておくこと。これにより、投資対効果の判断や意思決定の迅速化が期待できる。
また、生成AIのアプリケーション開発には失敗を伴う試行錯誤が不可欠なため、組織として失敗の許容範囲やデータの取り扱い方、AI活用に関するポリシーを事前に明確にすることで、挑戦しやすい環境づくりにつながる。
さらに、データ戦略の整備も欠かせない。生成AIに求められる基盤モデルの構築や、業務固有の知識を反映させるには、膨大かつ高品質なデータの確保と管理が必要になる。このとき、データの品質、セキュリティとガバナンス、拡張性、そして自動化の4つの観点が重視される。中でも拡張性には、データの増加だけでなく、アプリケーション要件の変化や技術の進化に柔軟に対応できる基盤を整えることが求められる。
また、組織文化や体制の変革も重要な要素。生成AIの活用が進む中で、従来の社内文化や意思決定の在り方を見直す必要が生じる場面も増えている。企業として生成AI活用方針を明確にし、推進体制を整えること、失敗を学びと捉える文化を作ること、さらに良いアイデアや技術が個人の中にとどまらず、組織全体で共有され、迅速に実行へつながる仕組みの構築が重視されていた。
多様化するモデルと変化するユーザー要件
説明会では、生成AI活用の最新動向についても整理が行われた。モデルの種類は以前にも増して多様化しており、汎用的なモデルに加え、特定用途向けのものや画像とテキストを同時に扱えるマルチモーダルモデルなど、さまざまな形式が登場している。さらに、処理速度やコスト効率といった要素でも選択肢が広がり、用途や目的に合わせたモデルの選定が求められる状況だという。
加えて、ユーザーが生成AIに求める内容も、より具体的かつ現実的なものへと変わりつつある。「万能ツールへの期待」から、「この手法なら、こうした価値が実現できる」といった、手法と成果の紐づけが重視されるようになってきた。具体的には、プロンプト設計、Retrieval Augmented Generation(RAG)によるモデル補強、AIエージェントを活用した複雑なタスク処理など、活用の幅も広がっている。
利用領域も、翻訳やメール作成といった個人用途から、社内チャットボットやレポート自動生成などの社内システムへの実装、さらに業務プロセス全体の自動化、新規事業開発といった、ビジネスインパクトの大きい領域へと拡大しつつある。ただ、多くの企業では、いきなり高難度の技術課題や大規模な改革に取り組むのではなく、小さな成功事例を積み重ねる形で段階的に進める傾向が見られるという。
用途の広がりとともに、「責任あるAI」の重要性も高まっている。特に、セキュリティ、個人情報保護、誤情報(ハルシネーション)の生成といったリスクへの配慮は不可欠。具体的には、制御性・セキュリティ・安全性・公平性・信憑性・説明可能性・透明性・ガバナンスの8つの観点からリスクを考慮する必要がある。
リスク許容度はユースケースごとに異なり、医療記録の要約のように誤情報が許されないケースもあれば、雑談型のチャットボットのように一定の柔軟性を持たせるケースもある。状況に応じた判断と適切な対策が求められる。
これらを実践するうえでのベストプラクティスとしては、人材育成、ユースケースごとのリスク評価、継続的な改善、入念なテストが挙げられると小林氏は語った。
AWSによる総合支援体制と最新ソリューション
AWSでは、生成AIに取り組む企業を支援する体制を、インフラ、アプリケーション開発、完成品ソリューションの3つの側面から整えている。
インフラ面では、推論とトレーニングのための独自設計のアクセラレータを提供。推論用のAWS Inferentiaとトレーニング用のAWS Trainiumにより、高い電力効率とコストパフォーマンスを実現し、継続的な学習や推論環境を支えている。米AnthropicもTrainiumを活用してモデルのトレーニングを行っているという。
アプリケーション開発では、複数の基盤モデルを用途に応じて選択・組み合わせ可能な「Amazon Bedrock」が中核。高性能モデルとコスト効率の良いモデルを状況に応じて使い分けることで、柔軟で効果的なAI活用が可能となる。
また、AIエージェント分野でも、Anthropicが提唱する「Model Context Protocol(MCP)」を採用し、AWS LambdaやAmazon Auroraなどのサービスと容易に連携できるサンプル実装も公開された。さらに、業務向けエージェント開発にも力を入れており、開発用SDKやモデルの拡充など、周辺技術の整備も進めている。
完成品のアプリケーションとしては、開発ライフサイクル全体を支援する「Amazon Q Developer」や、大規模システムの移行・モダナイゼーションを支援する「AWS Transform」が挙げられる。
さらに、Amazon Q Developer CLIではMCPのサポートも開始。これによりCLIから外部データソースへの接続・活用が可能になった。