Gemini API utilizzando Firebase AI Logic

Crea app e funzionalità web e mobile basate sull'AI con i modelli Gemini e Imagen utilizzando Firebase AI Logic

Firebase AI Logic ti dà accesso ai più recenti modelli di AI generativa di Google: i modelli Gemini e Imagen.

Se devi chiamare Gemini API o Imagen API direttamente dalla tua app web o mobile, anziché dal lato server, puoi utilizzare gli SDK client Firebase AI Logic. Questi SDK client sono creati specificamente per l'utilizzo con app mobile e web, offrendo opzioni di sicurezza contro client non autorizzati, nonché integrazioni con altri servizi Firebase.

Questi SDK client sono disponibili in Swift per le piattaforme Apple, Kotlin e Java per Android, JavaScript per il web, Dart per Flutter e Unity.

Con questi SDK client, puoi aggiungere la personalizzazione dell'AI alle app, creare un'esperienza di chat AI, creare ottimizzazioni e automazione basate sull'AI e molto altro ancora.

Inizia


Hai bisogno di maggiore flessibilità o di un'integrazione lato server?
Genkit è il framework open source di Firebase per lo sviluppo di AI sofisticate lato server con ampio accesso a modelli di Google, OpenAI, Anthropic e altri. Include funzionalità di AI più avanzate e strumenti locali dedicati.

Funzionalità chiave

Input multimodale e in linguaggio naturale I modelli Gemini sono multimodali, quindi i prompt inviati a Gemini API possono includere testo, immagini, PDF, video e audio. Alcuni modelli Gemini possono anche generare output multimodali.

È possibile richiedere sia il modello Gemini che il modello Imagen con input in linguaggio naturale.

Suite di funzionalità in crescita Con gli SDK, puoi chiamare Gemini API o Imagen API direttamente dalla tua app web o mobile per creare esperienze di chat con l'AI, generare immagini,utilizzare strumenti (come chiamata di funzioni e grounding con la Ricerca Google), trasmettere input e output multimodali (incluso l'audio), e altro ancora.
Sicurezza e prevenzione di abusi per le app di produzione Utilizza Firebase App Check per proteggere le API che accedono ai modelli Gemini e Imagen da abusi da parte di client non autorizzati.

Firebase AI Logic ha anche limiti di frequenza per utente per impostazione predefinita e questi limiti di frequenza per utente sono completamente configurabili.

Infrastruttura solida Sfrutta un'infrastruttura scalabile creata per l'utilizzo con app mobile e web, ad esempio per gestire i file con Cloud Storage for Firebase, gestire i dati strutturati con le offerte di database Firebase (come Cloud Firestore) e impostare dinamicamente le configurazioni di runtime con Firebase Remote Config.

Come funziona?

Firebase AI Logic fornisce SDK client, un servizio proxy e altre funzionalità che ti consentono di accedere ai modelli di AI generativa di Google per creare funzionalità di AI nelle tue app web e mobile.

Supporto per i modelli Google e i fornitori di "Gemini API"

Supportiamo tutti i modelli Gemini e Imagen 3 più recenti e puoi scegliere il fornitore "Gemini API" che preferisci per accedere a questi modelli. Supportiamo sia Gemini Developer API che Vertex AI Gemini API. Scopri le differenze tra l'utilizzo dei due fornitori di API.

Se scegli di utilizzare Gemini Developer API, puoi usufruire del "livello senza costi" per iniziare rapidamente.

SDK client web e per dispositivi mobili

Invii le richieste ai modelli direttamente dalla tua app web o mobile utilizzando i nostri SDK client Firebase AI Logic, disponibili in Swift per le piattaforme Apple, Kotlin e Java per Android, JavaScript per il web, Dart per Flutter e Unity.

Se hai configurato entrambi i provider Gemini API nel tuo progetto Firebase, puoi passare da un provider API all'altro semplicemente abilitando l'altra API e modificando alcune righe di codice di inizializzazione.

Inoltre, il nostro SDK client per il web offre l'accesso sperimentale all'inferenza ibrida e on-device per le app web in esecuzione su Chrome su computer. Questa configurazione consente alla tua app di utilizzare il modello sul dispositivo quando è disponibile, ma di passare senza problemi al modello ospitato sul cloud quando necessario.

Servizio proxy

Il nostro servizio proxy funge da gateway tra il client e il provider Gemini API scelto (e i modelli di Google). Fornisce servizi e integrazioni importanti per le app web e mobile. Ad esempio, puoi configurare Firebase App Check per proteggere il provider API scelto e le risorse di backend da abusi da parte di client non autorizzati.

Ciò è particolarmente importante se hai scelto di utilizzare Gemini Developer API perché il nostro servizio proxy e questa integrazione App Check garantiscono che la chiave API Gemini rimanga sul server e non sia incorporata nel codebase delle tue app.

Percorso di implementazione

Configura il tuo progetto Firebase e connetti la tua app a Firebase Utilizza il flusso di lavoro guidato nella pagina Firebase AI Logic della console Firebase per configurare il progetto (inclusa l'abilitazione delle API richieste per il provider Gemini API scelto), registrare l'app con il progetto Firebase e poi aggiungere la configurazione Firebase all'app.
Installa l'SDK e inizializzalo Installa l'SDK Firebase AI Logic specifico per la piattaforma della tua app, quindi inizializza il servizio e crea un'istanza del modello nella tua app.
Inviare richieste di prompt ai modelli Gemini e Imagen Utilizza gli SDK per inviare prompt solo di testo o multimodali a un modello Gemini per generare testo e codice, output strutturato (come JSON) e immagini. In alternativa, puoi anche chiedere a un modello Imagen di generare immagini.

Crea esperienze più ricche con la chat multi-turno, lo streaming bidirezionale di testo e audio e la chiamata di funzioni.

Prepararsi per la produzione Implementa integrazioni importanti per app mobile e web, ad esempio proteggi l'API da abusi con Firebase App Check e utilizza Firebase Remote Config per aggiornare i parametri nel codice da remoto (ad esempio il nome del modello).

Passaggi successivi

Inizia ad accedere a un modello dalla tua app mobile o web

Vai alla Guida introduttiva

Scopri di più sui modelli supportati

Scopri di più sui modelli disponibili per vari casi d'uso e sulle relative quote e prezzi.