概要
人工知能 (AI) プラットフォームとは、機械学習モデルを開発、訓練、実行するための統合されたテクノロジーの集合体です。AI プラットフォームには通常、自動化機能、機械学習運用 (MLOps)、予測データ分析などが含まれます。作業に必要なすべてのツールが揃い、構築および改良を行うための安定した基盤が提供される作業台のようなものだと考えたら良いでしょう。
AI プラットフォームとその開始方法の選択肢は増え続けています。ここでは注目すべき点のほか、留意すべき最重要事項をご紹介します。
AI プラットフォームの種類
AI プラットフォームにおいて組織が初めに直面するのは、事前構成済みのものを購入するか、自社でカスタムプラットフォームを構築するかという決断です。
AI プラットフォームを購入する
AI アプリケーション、モデル、アルゴリズムの迅速なデプロイを検討している場合、包括的な事前構成済み AI プラットフォームの購入が最適です。これらのプラットフォームには、ツール、言語リポジトリ、API が付属しており、セキュリティとパフォーマンスが事前にテストされています。一部のベンダーは、事前にトレーニングされた基礎モデルや生成 AI モデルを提供しています。サポートとオンボーディングリソースにより、既存の環境やワークフローにスムーズに適合させることができます。
Amazon Web Services (AWS) Sagemaker、Google Cloud AI Platform、Microsoft Azure AI Platform、IBM の watsonx.ai™ AI スタジオなど、人気のクラウドプロバイダーは AI プラットフォームでポートフォリオを拡大しています。多くの場合、AI プラットフォーム・プロバイダーは他の AI ソリューションと提携および統合可能なスタンドアローンの AI ツールも提供しています。
AI プラットフォームを構築する
特定のユースケースや高度なプライバシー保護のニーズに対応するため、組織によっては独自の AI プラットフォームを完全にカスタマイズし、管理する必要があります。たとえば Uber は、自然言語処理 (NLP) やコンピュータビジョンなどの技術を駆使したカスタム AI プラットフォームを開発し、GPS と衝突検知能力を向上させました。データ重視のヘルスケア企業である Syapse は、腫瘍に関するデータを実用的な知見に変換する AI ベースのデータプラットフォーム Syapse Raydar® を開発しました。
AI プラットフォームを構築することで環境を完全にコントロールすることができ、ビジネス特有のニーズに合わせて反復させることができます。しかしこのアプローチでは、プラットフォームを立ち上げて稼働させるために、より多くの先行作業が必要となります。メンテナンス、サポート、管理を外注することはできません。
オープンソースを活用する
オープンソース・コミュニティは、人工知能と機械学習の進歩を推進しています。AI イニシアチブの基盤としてオープンソース・ソフトウェア・ソリューションを選択すると、組織が最も使用するフレームワークやツールを常に改善している仲間や実務者のコミュニティに頼ることができます。多くの組織はオープンソースツールから始め、そこから構築していきます。Tensorflow と PyTorch は、AI アプリケーションを開発するためのライブラリとフレームワークを提供するオープンソース・プラットフォームです。
AI プラットフォームで注目すべき機能
MLOps
機械学習運用 (MLOps) とは、ML モデルのデプロイと保守のプロセスを最適化することを目的としたワークフローの一連のプラクティスです。AI プラットフォームは、モデルのトレーニング、サービス提供、監視といった MLOps フェーズをサポートする必要があります。
大規模言語モデル運用 (LLMOps) は MLOps のサブセットであり、本番環境で大規模言語モデルの運用管理に使用されるプラクティス、技術、ツールです。LLM はテキストの生成、コンテンツの要約、情報の分類などのタスクを実行できるものの、GPU から多大な計算リソースを消費するため、使用する AI プラットフォームは LLM の入出力に対応してサポートするのに十分強力である必要があります。
生成 AI
生成 AI は大規模なデータセットで訓練されたニューラルネットワークとディープラーニングモデルを使用して新しいコンテンツを作成します。生成 AI は、テキストや画像の生成、データの拡張、チャットボットなどの会話型 AI など、エンドユーザーが人工知能から連想するような機能の多くを含みます。AI プラットフォームでは、生成 AI 機能を迅速かつ正確にサポートすることが重要になります。
スケーラビリティ
モデルは規模をスケーリングできてこそ成功します。スケーリングさせるため、データサイエンスチームには AI モデルの構築とデプロイ、実験と微調整、他のチームとの連携を行うための一元化されたソリューションが必要です。これらすべてには、膨大な量のデータとコンピューティングパワーのほか、それらすべてを処理できるプラットフォームが必要です。
モデルが成功すると、それをさまざまな環境 (オンプレミス、パブリッククラウド・プラットフォーム、エッジ) で再現したいと考えるでしょう。スケーラブルなソリューションであれば、これらすべての環境でのデプロイをサポートすることができます。
自動化
本番環境へと進めたいモデルが増加するにつれ、自動化を検討しなければならなくなります。データサイエンス・パイプラインを自動化することで、最も成功したプロセスを反復可能な運用に変えることができます。これによりワークフローが高速化されるだけでなく、ユーザーにとってより優れた予測可能なエクスペリエンスが実現し、スケーラビリティが向上します。また、繰り返しのタスクを排除し、データサイエンティストやエンジニアが革新、反復、改良を行うための時間を確保することができます。
ツールと統合
開発者やデータサイエンティストは、アプリケーションやモデルを構築し、それらを効率的にデプロイするためにさまざまなツールや統合を活用しています。AI プラットフォームは、技術スタック全体やパートナーのソリューションと統合でき、チームがすでに使用しているツール、言語、リポジトリをサポートできる必要があります。
セキュリティと規制
AI プラットフォームとともに強力なセキュリティ対策を確立することで、リスクを軽減し、データを保護できます。トレーニングや開発などの日常の運用を通じて、共通脆弱性識別子 (CVE) をスキャンし、アクセス管理、ネットワーク・セグメンテーション、暗号化を通じてアプリケーションやデータの運用上の保護を確立することが重要です。
責任とガバナンス
また、AI プラットフォームは、倫理基準を守り、コンプライアンス違反を回避しながら、データを使用および監視できるようになっていなければなりません。組織のデータとユーザーデータの両方を保護するためには、ML ライフサイクル全体を通じて可視化、追跡、リスク管理戦略をサポートするプラットフォームを選択することが重要です。また、組織の既存のデータコンプライアンスとセキュリティの基準を満たしている必要があります。
サポート
エンドツーエンドの事前構成済み AI プラットフォームの最も重要な利点の 1 つは、それに付随するサポートです。継続的なバグ追跡とデプロイメント全体に拡張できる修復機能により、モデルのパフォーマンスが向上します。AI プラットフォーム・プロバイダーの中には、オンボーディングやトレーニングリソースを提供し、すぐに使い始められるものもあります。オープンソースツールを使用して独自のプラットフォームを構築する場合、機械学習機能セットとインフラストラクチャのサポートを提供するベンダーの利用を検討することをお勧めします。
AI プラットフォームのユースケース
通信
包括的な AI サービスは、ネットワークのパフォーマンス最適化や通信の製品およびサービスの品質強化など、通信業界のさまざまな部分を効率化することができます。 サービス品質の向上、オーディオ/ビジュアルの強化、解約の防止などに活用できます。
医療
堅牢な AI プラットフォームは、診断の迅速化、臨床研究の進歩、患者サービスへのアクセス拡大など、医療環境に変革をもたらすことができます。これにより医師やその他の医療従事者がより正確な診断と治療計画を提供できるようになり、患者の転帰を向上させることができます。
製造
機械学習を活用したインテリジェントな自動化は、製造業のサプライチェーン全体を変革しています。産業用ロボティクスと予測分析が繰り返しタスクの負担を軽減し、より効果的なワークフローがリアルタイムで実装されます。
Red Hat が提供できるサポート
Red Hat OpenShift AI は、AI 対応アプリケーションを構築、デプロイ、管理するツールを備えた包括的な前構成済みの MLOps プラットフォームです。オープンソース・テクノロジーを使用して構築されており、実験、モデルのトレーニング、革新的なアプリケーションの提供のための、信頼性と一貫性に優れた運用機能を提供します。OpenShift AI は、オンプレミスとパブリッククラウドで AI/ML の実験およびモデルのライフサイクル全体をサポートします。オペレーティングシステムから個々のツールに至るまで、Red Hat のエンジニアによるフルサポートを利用することができます。OpenShift AI は、ハードウェアパートナーとソフトウェアパートナーのオープンエコシステムにより、特定のユースケースに必要な柔軟性をもたらします。
バスク政府が、市民のためにバスク語をスペイン語、フランス語、英語に翻訳するための言語ツールを開発したいと考えたとき、Red Hat OpenShift は、GPU によるコンテナのサポートなど、AI のライフサイクルを強化するために必要な機能の多くを提供しました。