这是indexloc提供的服务,不要输入任何密码

検索

318 結果

フィルタをクリアする
  • 2025年7月14日 / Gemini

    Gemini API で Gemini エンベディングが一般公開に

    このたび、Gemini API と Vertex AI で Gemini エンベディング テキスト モデルの一般提供を開始しました。この汎用性の高いモデルは、3 月の試験運用版リリース以来、MTEB 多言語リーダーボードで一貫して 1 位の座を維持しており、100 以上の言語に対応、最大入力トークン長 2,048、料金は 100 万入力トークンあたり 0.15 ドルとなっています。

    Gemini Embedding now generally available in the Gemini API
  • 2025年7月14日 / Cloud

    エンタープライズ トゥルースの実践活用: Apigee API ハブで強力なデベロッパー ポータルを支援

    Apigee API ハブとデベロッパー ポータルは、Apigee プラットフォームの別個の部分でありながら相互に接続されており、組織がさまざまなペルソナ向けの API を発見して管理し、API の可能性を引き出し、イノベーションを加速するのに役立ちます。

    Enterprise Truth in Action: API hub Fueling Powerful Developer Portals
  • 2025年7月10日 / Gemini

    「GenAI Processors」を発表: 強力で柔軟な Gemini アプリケーションをビルド

    GenAI Processors は、Google DeepMind の新しいオープンソース Python ライブラリです。入力処理からモデル呼び出しと出力処理までのすべてのステップに一貫した「Processor」インターフェースを提供することで、シームレスなチェーンと同時実行を実現します。特にマルチモーダル入力を処理し、リアルタイムの応答性を必要とする AI アプリケーションの開発を簡素化します。

    Announcing GenAI Processors: Streamline your Gemini application development
  • 2025年7月10日 / Cloud

    Firebase Studio でエージェント AI 開発を推進

    Firebase Studio のアップデートには、新しく登場したエージェント モード、Model Context Protocol(MCP)の基本サポート、Gemini CLI 統合などが含まれています。こうしたすべての機能は AI を活用した開発を再定義するものであり、デベロッパーは単一のプロンプトからフルスタック アプリケーションを作成し、強力な AI 機能をワークフローに直接統合できます。

    Advancing agentic AI development with Firebase Studio
  • 2025年7月9日 / Gemma

    T5Gemma: エンコーダ-デコーダ Gemma モデルの新たなコレクション

    エンコーダ-デコーダ LLM の新しいファミリーである T5Gemma は、Gemma 2 フレームワークをベースに、事前トレーニング済みのデコーダのみのモデルを変換して適応させることによって開発されています。要約や翻訳など、入力を深く理解する必要があるタスクにおいて、デコーダのみのモデルよりも優れたパフォーマンスと効率を発揮します。

    T5Gemma: A New Collection of Encoder-Decoder Gemma Models
  • 2025年7月7日 / Gemini

    Gemini API のバッチモード: 高機能を低価格で

    Gemini API の新しいバッチモードは高スループット、遅延のない重大な AI ワークロード、スケジュールとプロセスの処理による大規模なジョブの簡素化のために設計されています。さらにデータ分析、バルク コンテンツの作成、よりコスト効率を高めてスケーラブルに行うモデル評価といったタスクの作成も可能で、デベロッパーは大容量のデータを効率的に処理できます。

    Scale your AI workloads with batch mode in the Gemini API
  • 2025年6月26日 / Gemma

    Gemma 3n の紹介: デベロッパー ガイド

    これまでの Gemma モデルの成功をもとに、Gemma 3n モデルが完全リリースを迎えました。前例のないパフォーマンスを発揮する先進的なオンデバイス マルチモーダル機能を、エッジデバイスで利用できるようになります。モバイルファースト アーキテクチャ、MatFormer テクノロジー、Per-Layer Embeddings、KV キャッシュ共有、新しい音声エンコーダと MobileNet-V5 ビジョン エンコーダなど、Gemma 3n のイノベーションをご覧ください。デベロッパーが今すぐ開発を始める方法も紹介します。

    Introducing Gemma 3n: The Developer Guide
  • 2025年6月26日 / AI

    Data Commons 用の新しい Python クライアント ライブラリで深い知見を得る

    Google は、Data Commons 用の新しい Python クライアント ライブラリをリリースしました。Data Commons は、公開統計データを一元的に扱えるようにするオープンソース ナレッジグラフです。ONE Campaign の貢献により、機能が改善され、カスタム インスタンスがサポートされ、幅広い統計変数を簡単に利用できるようになっています。これにより、データ デベロッパーが Data Commons を最大限に活用できるようになります。

    data-commons-python-library-meta
  • 2025年6月25日 / Gemini

    Gemini 2.5 Flash-Lite によるニューラル オペレーティング システムのシミュレーション

    Gemini 2.5 Flash-Lite を使ってニューラル オペレーティング システムをシミュレーションする研究プロトタイプにより、ユーザーのインタラクションにリアルタイムで適応する UI を生成します。これは、インタラクションを追跡してコンテキストを認識したり、速度を上げるために UI をストリーミングしたり、インメモリ UI グラフを使ってステートフルを実現したりすることで可能になります。

    Behind the prototype: Simulating a neural operating system with Gemini
  • 2025年6月24日 / Kaggle

    KerasHub を使用して Hugging Face で簡単なエンドツーエンドの機械学習ワークフローを実現

    KerasHub を使用すると、さまざまな機械学習フレームワーク間でモデル アーキテクチャと重みを組み合わせることができ、Hugging Face Hub などのソース(PyTorch で作成されたものを含む)のチェックポイントを Keras モデルに読み込んで JAX、PyTorch、TensorFlow で利用できるようになります。この柔軟性により、選択したバックエンド フレームワークを完全に制御しながら、コミュニティによってファインチューニングされた幅広いモデルを活用できます。

    How to load model weights from SafeTensors into KerasHub for multi-framework machine learning