アマゾン ウェブ サービス(AWS) has announced the availability of Meta’s new Llama 4 models via Amazon SageMaker JumpStartのフルマネージドサーバーレスモデルとして利用可能です。 アマゾンの岩盤 近日発売Llama 4の最初の2つのモデル、Llama 4 Scout 17BとLlama 4 Maverick 17Bは、高度なマルチモーダル機能(画像とテキストの両方のプロンプトを理解する能力)と業界をリードするコンテキストウィンドウ(一度に処理できる情報量)を備えており、以前のモデルバージョンよりも性能と効率が向上しています。
Llama 4 ScoutとLlama 4 MaverickがAWS上で利用できるようになったことで、アプリケーションの構築、デプロイ、拡張のために顧客に提供されるモデルの選択肢が広がりました。AWSは一貫して、MetaのようなAIをリードする企業から新しいモデルがリリースされるとすぐに提供し、エンタープライズグレードのツールとセキュリティにより、構築、カスタマイズ、スケーリングを容易にします。 ジェネレーティブAI アプリケーション
今日のニュースは、それをさらに補強するものです AWSLlama 4 Scout 17Bは、AIが一度に処理できるトークンを大幅に拡張します。Llama 4 Scout 17Bは、AIが一度に処理できる範囲を大幅に拡大し、従来のLlamaモデルの128,000トークンから最大1,000万トークン(コンテキストの長さは従来の約80倍)になりました。Llama 4 Maverick 17Bは、12言語の画像およびテキスト理解タスクに優れた汎用モデルであり、洗練されたアシスタントやチャットアプリケーションに適しています。
こちらもお読みください: データ連携ツール「レコナー」、業務効率化クラウドサービス「爆楽」との連携を開始
Both Llama 4 models are built with native multimodality, meaning they’re designed from the ground up to seamlessly understand text and images together, rather than handling them as separate inputs. And thanks to their more efficient mixture of experts (MoE) architecture—a first for Meta—that activates only the most relevant parts of the model for each task, customers can benefit from these powerful capabilities that are more compute efficient for model training and inference, translating into lower costs at greater performance.
ソース Amazonについて