AI

L’API SERP de Bright Data dans Azure IA Foundry pour des flux d’invites alimentés par la recherche.

Découvrez comment combiner l’API SERP de Bright Data et Azure IA Foundry pour la recherche et l’analyse d’actualités en temps réel dans de puissants flux d’invite augmentés par la recherche.
19 min de lecture
Bright Data's SERP API with Azure AI Foundry blog image

Dans cet article, vous apprendrez

  • Ce qu’est Azure IA Foundry et ce qu’il offre.
  • Pourquoi l’intégration de l’API SERP de Bright Data dans Azure IA Foundry est une stratégie gagnante.
  • Comment construire un flux rapide Azure IA réel se connectant à l’API SERP.

Plongeons dans le vif du sujet !

Qu’est-ce que Azure IA Foundry ?

Azure IA Foundry est une plateforme unifiée qui fournit un ensemble d’outils et de services pour construire, déployer et gérer des applications, des agents et des flux d’IA. En d’autres termes, elle agit comme une “usine d’IA” en standardisant le processus de création de systèmes d’IA.

Son principal objectif est de vous aider à passer du concept à la production. Pour ce faire, elle offre un accès à un large éventail de modèles et de capacités provenant de fournisseurs d’IA tels qu’Azure OpenAI, Meta et Mistral, aux côtés d’outils de développement, de déploiement et de surveillance continue.

Pourquoi intégrer l’API SERP de Bright Data à Azure IA Foundry ?

Azure IA Foundry présente une longue liste de LLM, mais quel que soit celui que vous choisissez, leurs connaissances sont statiques. Par exemple, un LLM n’est pas au courant des actualités boursières du jour, des résultats sportifs de la nuit dernière, etc. Cela peut se traduire par des réponses “périmées” ou “hallucinées”.

Pour surmonter cette limitation, vous pouvez construire un système pour “mettre à la terre” un LLM avec des données en temps réel provenant de l’Internet. Cette approche est particulièrement courante dans les flux de travail RAG(Retrieval-Augmented Generation), où le LLM reçoit des informations externes avant de générer une réponse, ce qui garantit que son résultat est basé sur des faits actuels.

Azure IA est livré avec un outil de mise à la terre intégré, mais il est limité à Bing comme source de données, ce qui n’est pas toujours idéal. Une alternative plus professionnelle et plus flexible est l’API SERP de Bright Data!

L’API SERP vous permet d’exécuter de manière programmatique des requêtes sur les moteurs de recherche et de récupérer le contenu complet des SERP, ce qui vous donne une source fiable de données fraîches et vérifiables qui peuvent être intégrées de manière transparente dans les agents IA et les flux de travail LLM. Découvrez toutes ses capacités dans la documentation officielle.

Dans Azure IA Foundry, l’intégration d’API tierces peut être mise en œuvre à la fois dans les agents et les flux. Ici, nous nous concentrerons spécifiquement sur les flux d’invite, qui sont particulièrement adaptés aux scénarios RAG.

Comment récupérer le contexte de la recherche Web dans un flux d’invite Azure IA avec l’API SERP ?

Dans cette section guidée, vous verrez comment intégrer l’API SERP de Bright Data dans un flux Azure IA dans le cadre d’un flux d’invite d’analyse de l’actualité. Ce flux de travail se compose de quatre étapes principales :

  1. Réception des données: Vous fournissez au flux de travail un sujet qui vous intéresse pour récupérer les actualités pertinentes.
  2. Récupération d’actualités: un nœud Python spécialisé prend le sujet en entrée et l’envoie à l’API SERP de Bright Data pour récupérer des articles d’actualité sur Google.
  3. Analyse des actualités: Un LLM traite les données récupérées par l’API SERP pour identifier les articles d’actualité qui valent la peine d’être lus.
  4. Génération de résultats: Le rapport Markdown produit répertorie chaque article extrait de l’API SERP, accompagné d’une brève description et d’un score indiquant s’il mérite d’être lu.

Remarque: il ne s’agit que d’un exemple, et vous pouvez tirer parti de l’API SERP dans de nombreux autres scénarios et cas d’utilisation.

Suivez les instructions ci-dessous pour créer un flux de travail de type RAG basé sur des données fraîches provenant de l’API SERP de Bright Data dans Azure IA Foundry !

Conditions préalables

Pour suivre cette section du tutoriel, assurez-vous d’avoir :

Suivez le guide officiel de Bright Data pour obtenir votre clé API. Conservez-la en lieu sûr, car vous en aurez besoin prochainement.

Étape 1 : Créer un Azure IA Hub

Les flux rapides d’Azure IA ne sont disponibles qu’au sein des Azure IA Hubs, la première étape consiste donc à en créer un.

Pour ce faire, connectez-vous à votre compte Azure et ouvrez le service Azure IA Foundry en cliquant sur son icône ou en le recherchant dans la barre de recherche :

The Azure AI Foundry management page

Vous devriez arriver sur la page de gestion “IA Foundry” :

Cliquez sur le bouton “Créer” et sélectionnez l’option “Hub” :

Selecting the “Create > Hub” option

Ensuite, remplissez le formulaire de création du Hub Azure IA comme indiqué ci-dessous :

Filling out the Azure AI Hub creation form

Choisissez une région, sélectionnez un groupe de ressources existant (ou créez-en un nouveau si nécessaire), et donnez un nom à votre Hub, par exemple bright-data-serp-ai-hub.

Cliquez ensuite sur le bouton “Réviser + Créer”. Un résumé s’affiche :

Reviewing the form info and pressing “Create”

Si tout semble correct, cliquez sur “Créer” pour lancer le déploiement.

Le processus d’initialisation peut prendre quelques minutes. Une fois qu’il est terminé, vous devriez voir une page de confirmation comme celle-ci :

Your Hub deployment is complete

Merveilleux ! Vous disposez maintenant d’un Azure IA Hub dans lequel vous pouvez créer un projet et initialiser votre flux d’invite.

Étape 2 : Créer un projet dans l’IA Hub

Pour gérer un flux d’invites, vous devez d’abord créer un projet dans l’IA Hub. Commencez par cliquer sur l’option “IA Hubs” dans le menu de gauche :

Selecting the “AI Hubs” option in the left menu

Cliquez sur le nom de votre Hub et, dans la section de droite qui s’affiche, sélectionnez “Créer un projet” :

Pressing the “Create project” button

Remplissez le formulaire de création de projet. Cette fois, nommez votre projet quelque chose comme serp-api-flow:

The Azure AI project creation form

Cliquez sur le bouton “Review + create”, puis vérifiez que tout est correct dans la section “summary”. Enfin, cliquez sur “Create” pour déployer votre projet.

Attendez quelques instants pour que le projet s’initialise. Une fois prêt, vous le verrez apparaître dans la liste de la page “IA Hubs”. Cliquez dessus :

Clicking the “Launch studio” button

Appuyez sur le bouton “Launch studio” pour l’ouvrir dans Azure IA Foundry studio:

Your project in Azure AI Foundry studio

Notez en haut que vous opérez dans le projet “Serp api flow”. Si ce n’est pas le cas (par exemple, si vous avez plusieurs projets), assurez-vous de sélectionner le bon projet.

C’est parfait ! Préparez-vous à définir votre flux d’api Azure IA.

Étape 3 : Déployer un LLM

Pour utiliser des nœuds LLM dans vos flux d’invite, Azure exige que vous déployiez d’abord l’un des modèles IA disponibles.

Pour ce faire, dans le menu de gauche, sélectionnez l’option “Model catalog”. Dans la page du catalogue, recherchez le modèle d’IA que vous souhaitez utiliser. Par exemple, supposons que vous souhaitiez utiliser gpt-5-mini.

Recherchez “gpt-5-mini” et sélectionnez-le :

Selecting the “gpt-5-mini” model

Sur la page du modèle, cliquez sur “Utiliser ce modèle” pour l’adopter :

Pressing the “Use this model” button

Dans la fenêtre modale qui s’affiche, cliquez sur le bouton “Créer une ressource et la déployer”, puis attendez que le modèle ait fini d’être déployé :

Waiting for the model to be deployed

Ce processus peut prendre quelques minutes, soyez patient. Une fois le déploiement terminé, vous verrez le modèle disponible dans votre projet Azure IA comme suit :

The gpt-5-mini page for the adopted model

Merveilleux ! Vous avez maintenant un moteur LLM prêt à alimenter votre flux d’invite.

Étape 4 : Créer un nouveau flux d’invite

Il est enfin temps de commencer à travailler sur votre flux d’invite. Commencez par sélectionner “Prompt flow” dans le menu de gauche, puis cliquez sur le bouton “Create” :

Pressing the “Create” button

Dans la fenêtre modale “Créer un nouveau flux”, cliquez sur “Créer” sur la carte “Flux standard” pour lancer un nouveau flux d’invite de base :

Clicking the “Standard flow > Create” button

Vous serez invité à saisir un nom de flux. Appelez-le quelque chose comme bright-data-serp-api-flow:

Giving your prompt flow a name

Appuyez sur le bouton “Créer”, attendez que le flux d’invite s’initialise et vous devriez obtenir un flux comme celui-ci :

Your new prompt flow in Azure AI Foundry studio

Comme vous pouvez le voir, sur la droite, il y a une représentation DAG(Directed Acyclic Graph) de votre flux.
En revanche, à gauche, vous trouverez un éditeur visuel dans lequel vous pourrez définir les nœuds de votre flux. Toute modification apportée à gauche est automatiquement répercutée dans le DAG de droite.

Par défaut, le flux standard inclut un exemple simple qui demande à l’IA de raconter une blague.
Partez de zéro en supprimant tous les nœuds existants et en appuyant sur “Start compute session” (Démarrer une session de calcul) pour mettre en service votre plateforme de développement de flux :

Starting the compute session in your new, blank flow

Remarque: lors du démarrage d’une session de calcul, Azure tente automatiquement de lancer l’instance de calcul par défaut. Cependant, l’allocation de la ressource peut prendre plusieurs minutes, voire plusieurs heures. Pour éviter de longs délais d’attente, envisagez de lancer manuellement la session de calcul à l’aide d’une configuration personnalisée sur votre propre instance de calcul.

Voilà qui est fait ! Vous avez maintenant une toile vierge prête à être transformée en un flux d’invite Azure IA alimenté par l’API SERP de Bright Data.

Étape 5 : conception de votre flux d’invite

Avant de construire le flux, vous devez définir clairement les nœuds qu’il inclura.

Dans ce cas, l’objectif est de créer un flux de recherche et d’évaluation d’actualités. Compte tenu d’un sujet, ce flux s’appuiera sur l’API SERP de Bright Data pour récupérer les articles d’actualité connexes sur Google, puis les transmettra à un LLM pour qu’il les évalue en fonction de leur valeur de lecture. De cette façon, vous pouvez rapidement identifier les articles qui valent la peine d’être lus.

Pour ce faire, votre flux se composera de quatre nœuds :

  1. Un nœud d’entrée qui accepte le sujet pour lequel effectuer la recherche sur le web d’actualités.
  2. Un nœud d’outil Python qui appelle l’API SERP de Bright Data à l’aide du sujet fourni.
  3. Un nœud LLM qui traite les données SERP renvoyées par l’API pour identifier et évaluer les articles d’actualité.
  4. Un nœud de sortie qui affiche le rapport final généré par le LLM.

Dans les étapes suivantes, vous apprendrez comment mettre en œuvre ce flux d’invite Azure IA !

Étape 6 : Ajouter le nœud d’entrée

Chaque flux doit inclure un nœud d’entrée et un nœud de sortie. Ainsi, les nœuds d’entrée et de sortie ne peuvent pas être supprimés et font déjà partie du flux.

Pour configurer le nœud d’entrée, allez dans la section “Inputs” de votre flux et cliquez sur le bouton “Add button” :

Pressing the “Add input” button

Définissez l’entrée comme étant un sujet et définissez son type comme étant une chaîne de caractères :

Defining a “topic” input as a string

Génial ! Le nœud d’entrée est maintenant configuré.

Étape 7 : Préparer l’appel à l’API SERP

Avant de créer le nœud Python personnalisé qui appelle l’API SERP de Bright Data, vous devez prendre quelques mesures préparatoires. Celles-ci ne sont pas strictement nécessaires, mais elles simplifieront l’intégration et la rendront plus sûre.

Tout d’abord, pour faciliter les appels à l’API, installez le SDK Python de Bright Data. Ce SDK fournit des méthodes pratiques pour interagir avec les produits Bright Data, notamment l’API SERP (au lieu de les appeler directement via l’API à l’aide d’un client HTTP). Vous pouvez en savoir plus dans la documentation officielle.

Le SDK est disponible sous la forme du package brightdata-sdk. Pour l’installer dans votre flux, cliquez sur le bouton “Compute session running” à gauche, puis sélectionnez l’option “Install packages from requirements.txt” :

Select “Install packages from requirements.txt” option

Un fichier requirements.txt s’ouvre dans le panneau de définition de votre flux. Ajoutez-y la ligne suivante, puis cliquez sur l’option “Save and install” :

Adding the brightdata-sdk line into the requirements file

Une fois installé, vous pourrez utiliser le SDK Python de Bright Data dans les nœuds d’outils Python personnalisés.

Ensuite, étant donné que l’API SERP nécessite une authentification via une clé API – et que vous ne souhaitez pas la coder en dur dans votre flux – vous devez la stocker de manière sécurisée en tant que secret dans Azure. Pour ce faire, ouvrez le “Centre de gestion” dans le menu de gauche (c’est généralement la dernière option) :

Selecting the “Management center” option in the menu

Dans l’aperçu de la gestion de projet, cliquez sur “Nouvelle connexion” dans la section “Ressources connectées” :

Pressing “New connection”

Dans la fenêtre modale qui s’affiche, sélectionnez l’option “Custom keys” (clés personnalisées) :

Selecting the “Custom keys” option

C’est ainsi que vous pouvez stocker des clés d’API personnalisées dans Azure IA Foundry.

Maintenant, créez une nouvelle clé secrète nommée quelque chose comme BRIGHT_DATA_API_KEY, et collez votre clé d’API Bright Data dans le champ de valeur. Veillez à cocher l’option “is secret”. Ensuite, donnez à votre connexion un nom reconnaissable, tel que bright-data:

Defining your bright-data custom connection

Enfin, cliquez sur “Ajouter une connexion” pour enregistrer.

C’est bien ! Revenez à votre flux. Vous êtes prêt à voir comment utiliser le SDK Python de Bright Data et votre clé API stockée pour appeler l’API SERP en quelques lignes de code seulement.

Étape n° 8 : définition d’un nœud Python personnalisé pour appeler l’API SERP de Bright Data

Dans le canevas de flux, cliquez sur le bouton “Python” pour créer un nouveau nœud d’outil Python:

Pressing the Python button

Donnez un nom à votre nœud, par exemple serp_api, et appuyez sur le bouton “Ajouter” :

Clicking the “Add” button

Dans la zone de texte du code, ajoutez le code Python suivant :

from promptflow import tool
from promptflow.connections import CustomConnection
from brightdata import bdclient

@tool
def serp_api(search_input : str, bd_conn : CustomConnection) -> str :
    # Initialiser le client SDK de Bright Data
    client = bdclient(api_token=bd_conn.BRIGHT_DATA_API_KEY)

    # Récupérer la SERP de Google au format Markdown 
    serp_page = client.search(
        search_input,
        data_format="markdown",
        country="us"
    )

    return serp_page

Dans Azure IA Foundry, les nœuds Python doivent définir les outils en tant que fonctions annotées avec @tool. Dans ce cas, la fonction serp_api() accepte la chaîne d’entrée de la recherche et une connexion personnalisée comme entrées.

À partir de la connexion personnalisée, la fonction lit la clé BRIGHT_DATA_API_KEY que vous avez définie précédemment et l’utilise pour initialiser une instance de client SDK Python de l’API Bright Data. Ce client est ensuite utilisé pour appeler l’API SERP via la méthode search(), avec les options data_format="markdown" et country="US" pour renvoyer la page SERP scrapée de la version américaine de Google en Markdown. (ce qui est idéal pour l’ingestion par l’IA).

Ensuite, faites défiler vers le bas et définissez les éléments d’entrée pour le nœud. Tout d’abord, appuyez sur ” Validate and parse input ” pour permettre au nœud de reconnaître les entrées valides. Configurez les entrées identifiées en établissant une correspondance :

  • bd_conn vers bright-data (votre connexion personnalisée définie précédemment).
  • search_input à ${input.topic} afin que l’entrée de recherche du nœud d’entrée soit transmise à l’API SERP.
Your serp_api node’s inputs

Génial ! L’intégration de l’API SERP de Bright Data dans Azure IA Foundry est maintenant terminée.

Étape 9 : spécifier le nœud LLM

Maintenant que vous avez la page SERP correspondant au sujet de recherche initial, envoyez-la à un LLM pour l’extraction et l’évaluation des actualités. Ajoutez un noeud LL M en appuyant sur le bouton “LLM” juste en dessous de l’onglet “Flow” :

Pressing the “LLM” option

Donnez à votre nœud LLM un nom comme llm et confirmez en cliquant sur “Ajouter” :

Clicking the “Add” button

C’est dans ce nœud que vous définissez la logique de base de votre flux d’invite. Pour atteindre l’objectif d’extraction et d’évaluation des nouvelles, vous pouvez écrire une invite comme celle-ci :

# système :
Vous êtes un assistant d'analyse de l'actualité chargé d'identifier les articles de presse les plus pertinents pour un sujet donné.

# utilisateur :
À partir de la page SERP ci-dessous, extrayez les articles les plus importants et évaluez chacun d'entre eux sur une échelle de 1 à 5 en fonction de l'intérêt qu'il présente pour la lecture.

Retourner un rapport formaté en Markdown contenant :
* Titre de l'actualité  
* URL de l'actualité  
* Brève description (pas plus de 20 mots)  
* Valeur de lecture (1-5)

SERP PAGE :
{{serp_page}}

La section # système définit le rôle et le comportement général de l’assistant, tandis que la section # utilisateur fournit la tâche spécifique et les instructions pour le traitement de l’entrée.

Ensuite, configurez le nœud LLM pour qu’il se connecte au modèle IA déployé précédemment (à l’étape 3) :

Configuring the deployed model

Remarquez que l’invite contient un paramètre serp_page, qui doit être défini sur la sortie du nœud serp_api défini précédemment. Configurez-le dans la section “Inputs” en appuyant sur “Validate and parse input” et en assignant serp_page à ${serp_api.output}:

Setting the node's inputs

Cool ! Votre flux Azure IA dispose désormais d’un “cerveau” LLM fonctionnel capable de traiter les résultats SERP et de générer des rapports d’actualité évalués.

Étape #10 : Définir le nœud de sortie

La dernière étape consiste à configurer le nœud de sortie. Dans la section “Outputs”, cliquez sur “Add output” :

Pressing the “Add output” button

Définissez le nom de la sortie comme rapport et assignez-le à la sortie du noeud LLM en utilisant la variable ${llm.output}:

Defining the “report” output

Une fois que vous avez terminé, cliquez sur “Save” pour enregistrer votre flux d’invite :

Saving your flow

Félicitations ! Votre flux Azure IA est maintenant entièrement mis en œuvre.

Étape 11 : Assembler le tout

Si vous regardez la section “Graph” de votre environnement de développement de flux, vous devriez voir un DAG comme celui ci-dessous :

The final DAG

Il représente clairement le flux d’analyse d’actualités décrit à l’étape 5, en montrant comment l’entrée, l’appel API SERP, l’évaluation LLM et la sortie sont connectés.

Étape 12 : Lancer le flux d’invite

Pour tester votre flux d’invite Azure IA, utilisons le sujet d’exemple “actualités boursières”. Dans le nœud “Inputs”, remplissez la “Value” pour le sujet avec la chaîne “stock market news” :

Setting “stock market news” as the flow input

Cliquez ensuite sur le bouton “Exécuter” dans le coin supérieur droit pour exécuter le flux :

Running the flow

Vous devriez voir chaque nœud devenir progressivement vert au fur et à mesure que les données passent par le flux jusqu’à ce qu’elles atteignent le nœud “Sorties” :

The flow execution

Une fois l’exécution terminée, vous recevrez une notification comme celle-ci :

Pressing the “View outputs” button

Cliquez sur “Voir les sorties” pour explorer le résultat du flux :

The Markdown report produced by the flow

Comme prévu, le flux produit un rapport Markdown contenant les articles de presse. Dans ce cas, il comprend :

- **Titre de l'actualité:** Dow, S&P 500, Nasdaq futures climb as US-China talks tee up for trade deal for Trump

  **URL de l'actualité:** [Yahoo Finance](https://finance.yahoo.com/news/live/stock-market-today-dow-sp-500-nasdaq-futures-climb-as-us-china-talks-tee-up-trade-deal-for-trump-225050786.html)

  **Description succincte:**Mise à jour en direct : les contrats à terme américains augmentent en raison des espoirs d'un accord commercial entre les États-Unis et la Chine avant la réunion de Trump.

  **Valeur de lecture:** 5

- **Titre de l'actualité:** Marché boursier aujourd'hui : Le Dow Jones, le S&P 500 et le Nasdaq grimpent à mesure que les négociations entre les États-Unis et la Chine débouchent sur un accord commercial pour Trump.

    **URL de l'actualité:** [Yahoo Finance](https://finance.yahoo.com/news/live/stock-market-today-dow-sp-500-nasdaq-futures-climb-as-us-china-talks-tee-up-trade-deal-for-trump-225050786.html)

    **Description succincte:** Les marchés progressent grâce à un regain d'optimisme sur le commerce entre les États-Unis et la Chine pendant les négociations avec Trump.

    **Valeur de lecture:** 5

# Omis par souci de concision...

Ces résultats reflètent la page SERP “stock market news” au moment de l’exécution du flux :

The SERP for “stock market news” on the day of the flow run

Pour confirmer que la page SERP a été correctement récupérée, inspectez l’onglet “output” dans la section “Outputs” du nœud serp_api:

The output produced by the “serp_api” node

Vous y trouverez la version Markdown de la SERP originale. L’API SERP de Bright Data a fait son travail !

Maintenant, pour une inspection complète de la sortie du flux, copiez la sortie du rapport dans un fichier, par exemple, report.md. Affichez-le dans une visionneuse Markdown comme Visual Studio Code :

Inspecting the flow's output in Visual Studio Code

Remarquez que le rapport produit par le flux correspond aux informations affichées dans le SERP de Google pour “stock market news”. Il est notoirement difficile de récupérer les résultats de recherche de Google en raison des mesures anti-bots et des limiteurs de taux. En utilisant l’API SERP, vous pouvez récupérer facilement et de manière fiable les résultats de Google (ou de tout autre moteur de recherche pris en charge) provenant de différentes régions dans un format Markdown prêt pour l’IA, sans aucune limite d’évolutivité.

Cet exemple illustre un cas d’utilisation simple, mais vous pouvez expérimenter des flux plus complexes, intégrer d’autres produits Bright Data ou ajuster l’invite LLM pour gérer différentes tâches. De nombreux autres cas d’utilisation sont également pris en charge !

Et voilà ! Vous avez maintenant un flux Azure IA Foundry qui récupère les données de recherche web et les utilise comme contexte dans un flux de travail de type RAG.

Conclusion

Dans cet article de blog, vous avez appris à utiliser l’API SERP de Bright Data pour récupérer des articles d’actualité frais de Google et les intégrer dans un flux de travail RAG dans Azure IA.

Le flux de travail IA démontré ici est parfait pour tous ceux qui veulent construire un assistant d’actualités qui filtre le contenu, afin que vous ne lisiez que les actualités pertinentes pour les sujets qui vous intéressent. Pour créer des flux de travail IA plus avancés, explorez la suite complète d’outils de Bright Data pour récupérer, valider et transformer les données Web en direct.

Créez un compte Bright Data gratuit dès aujourd’hui et commencez à expérimenter nos solutions de données web prêtes pour l’IA !