318 結果
2025年7月14日 / Gemini
このたび、Gemini API と Vertex AI で Gemini エンベディング テキスト モデルの一般提供を開始しました。この汎用性の高いモデルは、3 月の試験運用版リリース以来、MTEB 多言語リーダーボードで一貫して 1 位の座を維持しており、100 以上の言語に対応、最大入力トークン長 2,048、料金は 100 万入力トークンあたり 0.15 ドルとなっています。
2025年7月14日 / Cloud
Apigee API ハブとデベロッパー ポータルは、Apigee プラットフォームの別個の部分でありながら相互に接続されており、組織がさまざまなペルソナ向けの API を発見して管理し、API の可能性を引き出し、イノベーションを加速するのに役立ちます。
2025年7月10日 / Gemini
GenAI Processors は、Google DeepMind の新しいオープンソース Python ライブラリです。入力処理からモデル呼び出しと出力処理までのすべてのステップに一貫した「Processor」インターフェースを提供することで、シームレスなチェーンと同時実行を実現します。特にマルチモーダル入力を処理し、リアルタイムの応答性を必要とする AI アプリケーションの開発を簡素化します。
2025年7月10日 / Cloud
Firebase Studio のアップデートには、新しく登場したエージェント モード、Model Context Protocol(MCP)の基本サポート、Gemini CLI 統合などが含まれています。こうしたすべての機能は AI を活用した開発を再定義するものであり、デベロッパーは単一のプロンプトからフルスタック アプリケーションを作成し、強力な AI 機能をワークフローに直接統合できます。
2025年7月9日 / Gemma
エンコーダ-デコーダ LLM の新しいファミリーである T5Gemma は、Gemma 2 フレームワークをベースに、事前トレーニング済みのデコーダのみのモデルを変換して適応させることによって開発されています。要約や翻訳など、入力を深く理解する必要があるタスクにおいて、デコーダのみのモデルよりも優れたパフォーマンスと効率を発揮します。
2025年7月7日 / Gemini
Gemini API の新しいバッチモードは高スループット、遅延のない重大な AI ワークロード、スケジュールとプロセスの処理による大規模なジョブの簡素化のために設計されています。さらにデータ分析、バルク コンテンツの作成、よりコスト効率を高めてスケーラブルに行うモデル評価といったタスクの作成も可能で、デベロッパーは大容量のデータを効率的に処理できます。
2025年6月26日 / Gemma
これまでの Gemma モデルの成功をもとに、Gemma 3n モデルが完全リリースを迎えました。前例のないパフォーマンスを発揮する先進的なオンデバイス マルチモーダル機能を、エッジデバイスで利用できるようになります。モバイルファースト アーキテクチャ、MatFormer テクノロジー、Per-Layer Embeddings、KV キャッシュ共有、新しい音声エンコーダと MobileNet-V5 ビジョン エンコーダなど、Gemma 3n のイノベーションをご覧ください。デベロッパーが今すぐ開発を始める方法も紹介します。
2025年6月26日 / AI
Google は、Data Commons 用の新しい Python クライアント ライブラリをリリースしました。Data Commons は、公開統計データを一元的に扱えるようにするオープンソース ナレッジグラフです。ONE Campaign の貢献により、機能が改善され、カスタム インスタンスがサポートされ、幅広い統計変数を簡単に利用できるようになっています。これにより、データ デベロッパーが Data Commons を最大限に活用できるようになります。
2025年6月25日 / Gemini
Gemini 2.5 Flash-Lite を使ってニューラル オペレーティング システムをシミュレーションする研究プロトタイプにより、ユーザーのインタラクションにリアルタイムで適応する UI を生成します。これは、インタラクションを追跡してコンテキストを認識したり、速度を上げるために UI をストリーミングしたり、インメモリ UI グラフを使ってステートフルを実現したりすることで可能になります。
2025年6月24日 / Kaggle
KerasHub を使用すると、さまざまな機械学習フレームワーク間でモデル アーキテクチャと重みを組み合わせることができ、Hugging Face Hub などのソース(PyTorch で作成されたものを含む)のチェックポイントを Keras モデルに読み込んで JAX、PyTorch、TensorFlow で利用できるようになります。この柔軟性により、選択したバックエンド フレームワークを完全に制御しながら、コミュニティによってファインチューニングされた幅広いモデルを活用できます。