Microsoft は、軽量の Phi-3 モデルと OpenAI の「魔法の」GPT-4o を Azure AI に導入し、開発者が構築できるようにします…

  • abmhh
  • 0 comments
Microsoft は、軽量の Phi-3 モデルと OpenAI の「魔法の」GPT-4o を Azure AI に導入し、開発者が構築できるようにします…
マイクロソフトAIラボ
(画像クレジット:デザイナーの画像作成者|Kevin Okemwa)

知っておくべきこと

  • Microsoft の Azure AI Studio が、開発者がカスタム Copilot アプリを構築できるように、広く利用可能になりました。
  • OpenAI の GPT-4o モデルも、より豊かなユーザー エクスペリエンスを実現する API として Azure AI Studio にリリースされています。
  • Microsoft はまた、AI 小規模言語モデル (SML) の Phi-3 ファミリーの一部として、新しいマルチモーダル モデルである Phi-3-small、Phi-3-medium、および Phi-3-vision を発表しました。

マイクロソフトは現在、シアトルで年次開発者会議「Build 2024」を開催しています。このイベントはAI搭載PCとWindows 11 on Armが中心となっていますが、マイクロソフトはAIへの取り組み、特にMicrosoft Azureクラウドサービスに関する発表もいくつか行っています。

このテクノロジー大手は、Azure の新たな進歩により、ユーザーが「変革的な」 AI エクスペリエンスを構築できるようになると述べ、さらに「開発者にとってこれほどエキサイティングな時代はかつてなかった」と述べている。

Microsoftは、Azure AI Studioがついに一般公開されたことを発表しました。Azure AI Studioは、開発者がCopilotアプリをカスタム開発できる重要なプロコードツールであり、責任ある安全な開発環境を実現します。また、このプラットフォームは、AZDやVS Code向けAIツールキットといっ​​たコードファースト機能とユーザーフレンドリーなインターフェースを備えており、効率性と効果性を高めます。 

OpenAI の GPT-4o が Azure AI Studio に登場

OpenAIとChatGPT

(画像提供:ダニエル・ルビーノ)

先週、OpenAIは「GPT-4レベルの知能」を備えた新たな主力モデル「GPT-4o」を発表しました。この新モデルは既にAzure OpenAI Serviceのプレビュー版として提供されており、開発者は同サービスを利用してGPTテクノロジーをアプリに統合できます。

そして今、Microsoftは、このモデルがAzure AI StudioのAPIとして利用可能になったことを発表しました。開発者は、このモデルの機能を活用して、テキスト、画像、音声処理を単一のモデルに統合できるようになります。最近有効化されたGPT-4 Turbo with Visionと組み合わせることで、開発者はテキスト、画像など様々な情報にまたがる入出力を備えたアプリを構築し、より豊かなユーザーエクスペリエンスを実現できます。

マイクロソフトは、軽量な AI SML の Phi-3 ファミリーの一部として、新しいマルチモーダル モデルを発表しました。

Google Pixel 7 ProのChatGPT

(画像クレジット:ベン・ウィルソン|Windows Central)

先月、マイクロソフトはGPT-3.5と同等の性能を持つ超軽量AIモデル「Phi-3 Mini」を発表しました。そして今回、同社はAI小型言語モデル(SLM)「Phi-3」ファミリーの一部として、Phi-3-small、Phi-3-medium、そして新たなマルチモーダルモデル「Phi-3-vision」を発表しました。

Microsoft によれば:

Windows と Xbox の熱狂的なファンのための最新ニュース、レビュー、ガイド。

「Phi-3 モデルは強力でコスト効率に優れ、デバイス内、エッジ、オフライン推論、および応答時間の高速化が重要な遅延制限シナリオなど、リソースが制限された環境に最適化されています。」

これらのモデルには、 一般的な視覚的推論タスクに加え、チャートやグラフなどの分析的推論をサポートするPhi-3-visionも搭載されています。ユーザーはモデルに画像やテキストを入力し、テキストによる応答を出力することもできます。

マイクロソフトは、Phi-3-mini を Azure AI の Models-as-aService (MaaS) サービスに統合しました。さらに、マイクロソフトは API を通じてマルチモーダルエクスペリエンスをサポートする新機能も提供しています。 

最後に、MicrosoftはAzure AI Speechに、音声分析やユニバーサル翻訳など、いくつかの新機能をプレビューとして提供します。これらの機能は、開発者が高品質な音声対応アプリを開発できるよう設計されています。 

ケビン・オケムワは、ケニアのナイロビを拠点とするベテランのテクノロジージャーナリストです。Windows Centralで業界の最新トレンドや動向を幅広く取材し、豊富な経験を有しています。イノベーションへの情熱と細部への鋭い洞察力を持つ彼は、OnMSFT、MakeUseOf、Windows Reportといった主要メディアに寄稿し、Microsoftエコシステムを取り巻くあらゆるトピックについて、洞察力に富んだ分析と最新ニュースを提供しています。常に変化するテクノロジーのトレンドを追っている暇な時は、世界を旅したり、音楽を聴いたりしています。