AI

Die SERP-API von Bright Data in Azure KI Foundry für suchgestützte Prompt Flows

Entdecken Sie, wie Sie die SERP-API von Bright Data und Azure KI Foundry für die Nachrichtensuche und -analyse in Echtzeit in leistungsstarken, sucherweiterten Prompt Flows kombinieren können.
17 min lesen
Bright Data's SERP API with Azure AI Foundry blog image

In diesem Artikel werden Sie lernen:

  • Was Azure KI Foundry ist und was es bietet.
  • Warum die Integration mit der SERP-API von Bright Data in Azure KI Foundry eine erfolgreiche Strategie ist.
  • Wie man einen realen Azure KI Prompt Flow erstellt, der sich mit der SERP-API verbindet.

Lassen Sie uns eintauchen!

Was ist Azure KI Foundry?

Azure KI Foundry ist eine einheitliche Plattform, die eine Reihe von Tools und Services für die Erstellung, Bereitstellung und Verwaltung von KI-Anwendungen, Agenten und Flows bietet. Mit anderen Worten, sie fungiert als “KI-Fabrik”, indem sie den Prozess der Erstellung von KI-Systemen standardisiert.

Ihr Hauptziel ist es, Sie dabei zu unterstützen, vom Konzept zur Produktion zu gelangen. Dies wird durch den Zugriff auf eine breite Palette von Modellen und Funktionen von KI-Anbietern wie Azure OpenAI, Meta und Mistral sowie durch Tools für Entwicklung, Bereitstellung und kontinuierliche Überwachung erreicht.

Warum sollte die SERP-API von Bright Data in eine Azure KI Foundry integriert werden?

Azure KI Foundry bietet eine lange Liste von LLMs, aber unabhängig davon, welche Sie wählen, ist ihr Wissen statisch. Ein LLM kennt zum Beispiel nicht die aktuellen Börsennachrichten, die Sportergebnisse von gestern Abend usw. Das kann zu “abgestandenen” oder “halluzinierten” Antworten führen.

Um diese Einschränkung zu überwinden, können Sie ein System aufbauen, das ein LLM mit Echtzeitdaten aus dem Internet “erdet”. Dieser Ansatz ist besonders bei RAG-Workflows(Retrieval-Augmented Generation) üblich, bei denen das LLM mit externen Informationen versorgt wird, bevor es eine Antwort generiert, um sicherzustellen, dass seine Ausgabe auf aktuellen Fakten basiert.

Azure KI verfügt über ein integriertes Grounding-Tool, das jedoch auf Bing als Datenquelle beschränkt ist, was nicht immer ideal ist. Eine professionellere und flexiblere Alternative ist die SERP-API von Bright Data!

Mit der SERP-API können Sie programmgesteuert Suchanfragen in Suchmaschinen ausführen und den vollständigen SERP-Inhalt abrufen. Damit verfügen Sie über eine zuverlässige Quelle für frische, überprüfbare Daten, die sich nahtlos in KI-Agenten und LLM-Workflows integrieren lassen. Entdecken Sie alle Funktionen in der offiziellen Dokumentation.

In Azure KI Foundry kann die Integration von APIs von Drittanbietern sowohl in Agenten als auch in Workflows implementiert werden. Hier werden wir uns speziell auf Prompt-Flows konzentrieren, die sich besonders gut für RAG-Szenarien eignen.

Abrufen von Websuchkontext in einem Azure KI Prompt Flow mit SERP-API

In diesem geführten Abschnitt erfahren Sie, wie Sie die SERP-API von Bright Data als Teil eines Prompt-Flows zur Nachrichtenanalyse in einen Azure-KI-Flow integrieren. Dieser Workflow besteht aus vier Hauptschritten:

  1. Eingabe empfangen: Sie geben dem Workflow ein Thema vor, an dem Sie interessiert sind, um relevante Nachrichten abzurufen.
  2. Abrufen von Nachrichten: Ein spezialisierter Python-Knoten nimmt das Eingabethema und sendet es an die SERP-API von Bright Data, um Nachrichtenartikel von Google abzurufen.
  3. Nachrichtenanalyse: Ein LLM verarbeitet die von der SERP-API abgerufenen Daten, um zu ermitteln, welche Nachrichten lesenswert sind.
  4. Erzeugung der Ausgabe: Der erzeugte Markdown-Bericht listet jeden aus der SERP extrahierten Nachrichtenartikel zusammen mit einer kurzen Beschreibung und einer Punktzahl auf, die angibt, ob er lesenswert ist.

Hinweis: Dies ist nur ein Beispiel, und Sie können die SERP-API in vielen anderen Szenarien und Anwendungsfällen nutzen.

Folgen Sie den nachstehenden Anweisungen, um einen RAG-ähnlichen Workflow zu erstellen, der auf frischen Daten aus der SERP-API von Bright Data in Azure KI Foundry basiert!

Voraussetzungen

Um diesem Abschnitt des Tutorials folgen zu können, müssen Sie Folgendes haben

Befolgen Sie die offizielle Bright Data-Anleitung, um Ihren API-Schlüssel zu erhalten. Bewahren Sie ihn an einem sicheren Ort auf, da Sie ihn in Kürze benötigen werden.

Schritt 1: Erstellen eines Azure KI-Hubs

Azure KI Prompt Flows sind nur innerhalb von Azure KI Hubs verfügbar, daher ist der erste Schritt die Erstellung eines solchen.

Melden Sie sich dazu bei Ihrem Azure-Konto an und öffnen Sie den Azure KI Foundry-Dienst, indem Sie entweder auf das Symbol klicken oder in der Suchleiste danach suchen:

The Azure AI Foundry management page

Sie sollten die Verwaltungsseite “KI Foundry” erreichen:

Klicken Sie hier auf die Schaltfläche “Erstellen” und wählen Sie die Option “Hub”:

Selecting the “Create > Hub” option

Als Nächstes füllen Sie das Formular zur Erstellung eines Azure KI-Hubs aus, wie unten dargestellt:

Filling out the Azure AI Hub creation form

Wählen Sie eine Region aus, wählen Sie eine bestehende Ressourcengruppe aus (oder erstellen Sie bei Bedarf eine neue), und geben Sie Ihrem Hub einen Namen, z. B. bright-data-serp-ai-hub.

Klicken Sie dann auf die Schaltfläche “Überprüfen + Erstellen”. Es wird eine Zusammenfassung angezeigt:

Reviewing the form info and pressing “Create”

Wenn alles gut aussieht, klicken Sie auf “Erstellen”, um die Bereitstellung zu starten.

Der Initialisierungsprozess kann ein paar Minuten dauern. Sobald er abgeschlossen ist, sollten Sie eine Bestätigungsseite wie diese sehen:

Your Hub deployment is complete

Wunderbar! Sie haben jetzt einen Azure KI Hub, in dem Sie ein Projekt erstellen und Ihren Prompt Flow initialisieren können.

Schritt #2: Erstellen Sie ein Projekt im KI-Hub

Um einen Prompt Flow zu verwalten, müssen Sie zunächst ein Projekt im KI Hub erstellen. Klicken Sie zunächst auf die Option “KI-Hubs” im linken Menü:

Selecting the “AI Hubs” option in the left menu

Klicken Sie auf den Namen Ihres Hubs und wählen Sie in dem rechts erscheinenden Bereich “Projekt erstellen”:

Pressing the “Create project” button

Füllen Sie das Formular zur Projekterstellung aus. Nennen Sie Ihr Projekt diesmal z. B. serp-api-flow:

The Azure AI project creation form

Klicken Sie auf die Schaltfläche “Überprüfen + Erstellen” und überprüfen Sie dann im Abschnitt “Zusammenfassung”, ob alles korrekt ist. Drücken Sie abschließend auf “Erstellen”, um Ihr Projekt bereitzustellen.

Warten Sie ein paar Augenblicke, bis das Projekt initialisiert ist. Sobald es fertig ist, wird es auf der Seite “KI-Hubs” aufgelistet. Klicken Sie es an:

Clicking the “Launch studio” button

Klicken Sie auf die Schaltfläche “Studio starten”, um es im Azure KI Foundry Studio zu öffnen:

Your project in Azure AI Foundry studio

Beachten Sie oben, dass Sie sich im Projekt “Serp api flow” befinden. Wenn dies nicht der Fall ist (z.B. wenn Sie mehrere Projekte haben), stellen Sie sicher, dass Sie das richtige Projekt auswählen.

Sehr gut! Machen Sie sich bereit, Ihren Azure KI Prompt Flow zu definieren.

Schritt #3: Bereitstellen eines LLM

Um LLM-Knoten in Ihren Prompt-Flows zu verwenden, müssen Sie in Azure zunächst eines der verfügbaren KI-Modelle bereitstellen.

Wählen Sie dazu im linken Menü die Option “Modellkatalog”. Suchen Sie auf der Katalogseite nach dem KI-Modell, das Sie verwenden möchten. Nehmen wir zum Beispiel an, Sie möchten gpt-5-mini verwenden.

Suchen Sie nach “gpt-5-mini” und wählen Sie es aus:

Selecting the “gpt-5-mini” model

Klicken Sie auf der Seite des Modells auf “Dieses Modell verwenden”, um es zu übernehmen:

Pressing the “Use this model” button

Klicken Sie in dem daraufhin angezeigten modalen Fenster auf die Schaltfläche “Ressource erstellen und bereitstellen” und warten Sie dann, bis die Bereitstellung des Modells abgeschlossen ist:

Waiting for the model to be deployed

Dieser Vorgang kann einige Minuten dauern, haben Sie also etwas Geduld. Sobald die Bereitstellung abgeschlossen ist, sehen Sie das Modell in Ihrem Azure KI-Projekt wie folgt verfügbar:

The gpt-5-mini page for the adopted model

Wunderbar! Sie haben nun eine LLM-Engine, die bereit ist, Ihren Prompt-Flow zu betreiben.

Schritt #4: Erstellen Sie einen neuen Prompt Flow

Jetzt ist es endlich an der Zeit, mit der Arbeit an Ihrem Prompt Flow zu beginnen. Beginnen Sie mit der Auswahl von “Prompt flow” aus dem linken Menü und klicken Sie dann auf die Schaltfläche “Create”:

Pressing the “Create” button

Im Modal “Neuen Ablauf erstellen” klicken Sie auf der Karte “Standardablauf” auf “Erstellen”, um einen neuen, einfachen Prompt-Ablauf zu erstellen:

Clicking the “Standard flow > Create” button

Sie werden aufgefordert, einen Namen für den Ablauf einzugeben. Nennen Sie ihn z. B. bright-data-serp-api-flow:

Giving your prompt flow a name

Drücken Sie die Schaltfläche “Erstellen”, warten Sie, bis der Prompt-Flow initialisiert ist, und Sie sollten einen Flow wie diesen erhalten:

Your new prompt flow in Azure AI Foundry studio

Wie Sie sehen können, befindet sich auf der rechten Seite eine DAG-Darstellung(Directed Acyclic Graph) Ihres Flusses.
Stattdessen finden Sie auf der linken Seite einen visuellen Editor, in dem Sie die Knoten Ihres Ablaufs definieren können. Alle Änderungen, die Sie auf der linken Seite vornehmen, werden automatisch in das DAG auf der rechten Seite übernommen.

Standardmäßig enthält der Standardablauf ein einfaches Beispiel, das die KI auffordert, einen Witz zu erzählen.
Beginnen Sie bei Null, indem Sie alle vorhandenen Knoten löschen und auf “Berechnungssitzung starten” klicken, um Ihre Flow-Entwicklungsplattform in Betrieb zu nehmen:

Starting the compute session in your new, blank flow

Hinweis: Beim Starten einer Rechensitzung versucht Azure automatisch, die Standard-Recheninstanz zu starten. Es kann jedoch einige Minuten oder sogar Stunden dauern, bis die Ressource zugewiesen wird. Um lange Wartezeiten zu vermeiden, sollten Sie in Erwägung ziehen, die Compute-Sitzung manuell zu starten, indem Sie eine benutzerdefinierte Konfiguration auf Ihrer eigenen Compute-Instanz verwenden.

Gut gemacht! Sie haben nun eine leere Leinwand, die Sie in einen Azure KI Prompt Flow auf Basis der Bright Data SERP-API umwandeln können.

Schritt Nr. 5: Entwerfen Sie Ihren Prompt-Flow

Bevor Sie den Fluss erstellen, müssen Sie die Knoten, die er enthalten soll, klar definieren.

In diesem Fall besteht das Ziel darin, einen Fluss zum Abrufen und Bewerten von Nachrichten zu erstellen. Bei einem bestimmten Thema wird sich dieser Fluss auf die SERP-API von Bright Data stützen, um verwandte Nachrichtenartikel von Google abzurufen, und diese dann zur Bewertung auf der Grundlage der Lesbarkeit an einen LLM weiterleiten. Auf diese Weise können Sie schnell feststellen, welche Artikel lesenswert sind.

Um dies zu erreichen, wird Ihr Ablauf aus vier Knoten bestehen:

  1. Einem Eingabeknoten, der das Thema annimmt, für das die Suche im Nachrichtenweb durchgeführt werden soll.
  2. Einem Python-Toolknoten, der die SERP-API von Bright Data unter Verwendung des angegebenen Themas aufruft.
  3. Ein LLM-Knoten, der die von der API zurückgegebenen SERP-Daten verarbeitet, um die Nachrichtenartikel zu identifizieren und zu bewerten.
  4. Ein Ausgabeknoten, der den vom LLM generierten Abschlussbericht anzeigt.

In den folgenden Schritten erfahren Sie, wie Sie diesen Azure KI Prompt Flow implementieren können!

Schritt #6: Hinzufügen des Eingabeknotens

Jeder Fluss muss sowohl einen Eingabe- als auch einen Ausgabeknoten enthalten. Daher können die Eingangs- und Ausgangsknoten nicht entfernt werden und sind bereits Teil des Flusses.

Um den Eingangsknoten zu konfigurieren, gehen Sie zum Abschnitt “Eingänge” Ihres Ablaufs und klicken Sie auf die Schaltfläche “Hinzufügen”:

Pressing the “Add input” button

Definieren Sie den Eingang als Thema und setzen Sie seinen Typ auf String:

Defining a “topic” input as a string

Erstaunlich! Der Eingangsknoten ist nun konfiguriert.

Schritt #7: Bereiten Sie den Aufruf des SERP-APIs vor

Bevor Sie den benutzerdefinierten Python-Knoten erstellen, der die SERP-API von Bright Data aufruft, müssen Sie einige vorbereitende Schritte durchführen. Diese sind nicht unbedingt erforderlich, vereinfachen aber die Integration und erhöhen die Sicherheit.

Installieren Sie zunächst das Bright Data Python SDK, um die API-Aufrufe zu vereinfachen. Dieses SDK bietet bequeme Methoden zur Interaktion mit Bright Data-Produkten, einschließlich der SERP-API (anstatt sie direkt über die API mit einem HTTP-Client aufzurufen). Mehr darüber erfahren Sie in der offiziellen Dokumentation.

Das SDK ist als brightdata-sdk-Paket verfügbar. Um es in Ihrem Ablauf zu installieren, klicken Sie auf die Schaltfläche “Compute session running” auf der linken Seite und wählen Sie dann die Option “Install packages from requirements.txt”:

Select “Install packages from requirements.txt” option

Eine requirements.txt-Datei wird in Ihrem Ablaufdefinitionsbereich geöffnet. Fügen Sie die folgende Zeile hinzu und klicken Sie dann auf die Option “Speichern und installieren”:

Adding the brightdata-sdk line into the requirements file

Nach der Installation können Sie das Bright Data Python SDK innerhalb der benutzerdefinierten Python-Toolknoten verwenden.

Da für die SERP-API eine Authentifizierung über einen API-Schlüssel erforderlich ist und Sie diesen nicht in Ihrem Datenfluss fest codieren möchten, sollten Sie ihn sicher als Geheimnis in Azure speichern. Öffnen Sie dazu das “Management Center” aus dem linken Menü (es ist normalerweise die letzte Option):

Selecting the “Management center” option in the menu

Klicken Sie in der Übersicht der Projektverwaltung unter dem Abschnitt “Verbundene Ressourcen” auf “Neue Verbindung”:

Pressing “New connection”

In dem sich öffnenden Modal wählen Sie die Option “Benutzerdefinierte Schlüssel”:

Selecting the “Custom keys” option

Auf diese Weise können Sie benutzerdefinierte API-Schlüssel in Azure KI Foundry speichern.

Erstellen Sie nun einen neuen geheimen Schlüssel mit dem Namen BRIGHT_DATA_API_KEY, und fügen Sie Ihren Bright Data-API-Schlüssel in das Wertefeld ein. Stellen Sie sicher, dass die Option “ist geheim” aktiviert ist. Geben Sie dann Ihrer Verbindung einen erkennbaren Namen, z. B. bright-data:

Defining your bright-data custom connection

Klicken Sie abschließend auf “Verbindung hinzufügen”, um zu speichern.

Sehr gut! Gehen Sie zurück zu Ihrem Fluss. Jetzt können Sie sehen, wie Sie das Bright Data Python SDK und Ihren gespeicherten API-Schlüssel verwenden, um die SERP-API in nur wenigen Codezeilen aufzurufen.

Schritt Nr. 8: Definieren Sie einen benutzerdefinierten Python-Knoten zum Aufrufen der SERP-API von Bright Data

Klicken Sie im Flow Canvas auf die Schaltfläche “Python”, um einen neuen Python-Toolknoten zu erstellen:

Pressing the Python button

Geben Sie Ihrem Knoten einen Namen, z. B. serp_api, und klicken Sie auf die Schaltfläche Hinzufügen”:

Clicking the “Add” button

Fügen Sie in das Textfeld für den Code den folgenden Python-Code ein:

from promptflow import tool
from promptflow.connections import CustomConnection
from brightdata import bdclient

@tool
def serp_api(search_input: str, bd_conn: CustomConnection) -> str:
    # Initialisieren des Bright Data SDK-Clients
    client = bdclient(api_token=bd_conn.BRIGHT_DATA_API_KEY)

    # Abrufen der SERP von Google im Markdown-Format 
    serp_page = client.search(
        search_input,
        data_format="markdown",
        country="us"
    )

    return serp_page

In Azure KI Foundry müssen Python-Knoten Werkzeuge als Funktionen definieren, die mit @tool annotiert sind. In diesem Fall akzeptiert die Funktion serp_api() den Such-Eingabe-String und eine benutzerdefinierte Verbindung als Eingaben.

Aus der benutzerdefinierten Verbindung liest die Funktion den zuvor definierten BRIGHT_DATA_API_KEY und verwendet ihn zur Initialisierung einer Bright Data API Python SDK-Clientinstanz. Dieser Client wird dann verwendet, um die SERP-API über die search() -Methode mit den Optionen data_format="markdown" und country="US" aufzurufen, um die gescrapte SERP-Seite der US-Version von Google in Markdown zurückzugeben. (was ideal für die KI ist).

Blättern Sie nun nach unten und definieren Sie die Eingabeelemente für den Knoten. Klicken Sie zunächst auf “Eingabe validieren und parsen”, damit der Knoten gültige Eingaben erkennen kann. Konfigurieren Sie die erkannten Eingänge durch Zuordnen:

  • bd_conn auf bright-data (Ihre zuvor definierte benutzerdefinierte Verbindung).
  • search_input auf ${input.topic}, damit die Sucheingabe vom Eingabeknoten an die SERP-API weitergegeben wird.
Your serp_api node’s inputs

Großartig! Die Integration der Bright Data SERP-API in Azure KI Foundry ist nun abgeschlossen.

Schritt Nr. 9: Angeben des LLM-Knotens

Da Sie nun die SERP-Seite haben, die dem anfänglichen Suchthema entspricht, füttern Sie diese mit einem LLM für die Nachrichtenextraktion und -bewertung. Fügen Sie einen LLM-Knoten hinzu, indem Sie auf die Schaltfläche “LLM” direkt unter der Registerkarte “Flow” klicken:

Pressing the “LLM” option

Geben Sie Ihrem LLM-Knoten einen Namen wie llm und bestätigen Sie mit “Hinzufügen”:

Clicking the “Add” button

In diesem Knoten definieren Sie die Kernlogik Ihres Prompt-Flows. Um das Ziel der Nachrichtenextraktion und -auswertung zu erreichen, können Sie einen Prompt wie diesen schreiben:

# system:
Sie sind ein Nachrichtenanalyse-Assistent, der die Aufgabe hat, die relevantesten Nachrichtenartikel zu einem bestimmten Thema zu identifizieren.

# Benutzer:
Extrahieren Sie aus der untenstehenden SERP-Seite die wichtigsten Nachrichten und bewerten Sie jede einzelne auf einer Skala von 1 bis 5 danach, wie lesenswert sie erscheint.

Gib einen Markdown-formatierten Bericht zurück, der Folgendes enthält:
* Nachrichtentitel  
* URL der Nachricht  
* Kurzbeschreibung (nicht mehr als 20 Wörter)  
* Lesenswertigkeit (1-5)

SERP-SEITE:
{{serp_page}}

Der # Systemabschnitt definiert die Rolle und das allgemeine Verhalten des Assistenten, während der # Benutzerabschnitt die spezifische Aufgabe und die Anweisungen für die Verarbeitung der Eingaben enthält.

Als Nächstes konfigurieren Sie den LLM-Knoten, um eine Verbindung zum KI-Modell herzustellen, das zuvor (in Schritt #3) eingesetzt wurde:

Configuring the deployed model

Beachten Sie, dass die Eingabeaufforderung einen Parameter serp_page enthält, der auf die Ausgabe des zuvor definierten Knotens serp_api gesetzt werden muss. Konfigurieren Sie dies im Abschnitt “Eingaben”, indem Sie auf “Eingabe validieren und parsen” klicken und serp_page auf ${serp_api.output} setzen:

Setting the node's inputs

Cool! Ihr Azure KI-Flow hat nun ein funktionierendes LLM-“Gehirn”, das in der Lage ist, SERP-Ergebnisse zu verarbeiten und ausgewertete Nachrichtenberichte zu erstellen.

Schritt #10: Definieren Sie den Ausgabeknoten

Der letzte Schritt besteht darin, den Ausgabeknoten zu konfigurieren. Klicken Sie im Abschnitt “Outputs” auf “Add output”:

Pressing the “Add output” button

Legen Sie den Namen des Outputs auf "report" fest und weisen Sie ihn dem Output des LLM-Knotens zu, indem Sie die Variable ${llm.output} verwenden:

Defining the “report” output

Klicken Sie anschließend auf “Speichern”, um Ihren Prompt Flow zu speichern:

Saving your flow

Herzlichen Glückwunsch! Ihr Azure KI-Flow ist nun vollständig implementiert.

Schritt #11: Setzen Sie alles zusammen

Wenn Sie sich den Abschnitt “Graph” in Ihrer Flow-Entwicklungsumgebung ansehen, sollten Sie ein DAG wie das folgende sehen:

The final DAG

Dies stellt eindeutig den in Schritt 5 beschriebenen Nachrichtenanalysefluss dar und zeigt, wie die Eingabe, der SERP-API-Aufruf, die LLM-Bewertung und die Ausgabe miteinander verbunden sind.

Schritt #12: Starten Sie den Prompt Flow

Um Ihren Azure KI Prompt Flow zu testen, lassen Sie uns das Beispielthema “Börsennachrichten” verwenden. Füllen Sie im Knoten “Inputs” den “Value” für das Thema mit der Zeichenfolge “stock market news” aus:

Setting “stock market news” as the flow input

Klicken Sie anschließend auf die Schaltfläche “Ausführen” in der oberen rechten Ecke, um den Ablauf auszuführen:

Running the flow

Sie sollten sehen, dass jeder Knoten allmählich grün wird, während die Daten den Fluss durchlaufen, bis sie den Knoten “Outputs” erreichen:

The flow execution

Wenn die Ausführung abgeschlossen ist, erhalten Sie eine Benachrichtigung wie diese:

Pressing the “View outputs” button

Klicken Sie auf “Ausgaben anzeigen”, um das Ergebnis des Ablaufs zu sehen:

The Markdown report produced by the flow

Wie erwartet, erzeugt der Ablauf einen Markdown-Bericht, der die Nachrichtenartikel enthält. In diesem Fall enthält er:

- **Nachrichten-Titel:** Dow, S&P 500, Nasdaq-Futures steigen, da Gespräche zwischen den USA und China ein Handelsabkommen für Trump vorbereiten

  **Nachrichten-URL:** [Yahoo Finance](https://finance.yahoo.com/news/live/stock-market-today-dow-sp-500-nasdaq-futures-climb-as-us-china-talks-tee-up-trade-deal-for-trump-225050786.html)

  **Kurzbeschreibung:** Live-Update: US-Futures steigen in der Hoffnung auf ein Handelsabkommen zwischen den USA und China vor dem Treffen mit Trump.

  **Lesenswert:** 5

- **Nachrichtentitel:** Aktienmarkt heute: Dow, S&P 500, Nasdaq-Futures steigen, da die Gespräche zwischen den USA und China ein Handelsabkommen für Trump vorbereiten

    **Nachrichten-URL:** [Yahoo Finance](https://finance.yahoo.com/news/live/stock-market-today-dow-sp-500-nasdaq-futures-climb-as-us-china-talks-tee-up-trade-deal-for-trump-225050786.html)

    **Kurzbeschreibung:** Märkte steigen aufgrund des erneuten Handelsoptimismus zwischen den USA und China während der Gespräche mit Trump.

    **Lesenswert:** 5

# Der Kürze halber weggelassen...

Diese Ergebnisse spiegeln die SERP-Seite “Börsennachrichten” zum Zeitpunkt der Ausführung des Flusses wider:

The SERP for “stock market news” on the day of the flow run

Um zu bestätigen, dass die SERP-Seite korrekt abgerufen wurde, sehen Sie sich die Registerkarte “output” im Abschnitt “Outputs” des Knotens serp_api an:

The output produced by the “serp_api” node

Dort sehen Sie die Markdown-Version der ursprünglichen SERP. Die SERP-API von Bright Data hat ihre Arbeit getan!

Kopieren Sie die Berichtsausgabe in eine Datei, z. B. report.md, um eine vollständige Prüfung der Ausgabe des Flusses zu erhalten. Zeigen Sie sie in einem Markdown-Viewer wie Visual Studio Code an:

Inspecting the flow's output in Visual Studio Code

Beachten Sie, wie der vom Ablauf erstellte Bericht mit den Nachrichten übereinstimmt, die in der Google-SERP für “Börsennachrichten” angezeigt werden. Das Scraping von Google-Suchergebnissen ist aufgrund von Anti-Bot-Maßnahmen und Ratenbegrenzern bekanntermaßen schwierig. Mit der SERP-API können Sie zuverlässig und einfach Google-Ergebnisse (oder die Ergebnisse jeder anderen unterstützten Suchmaschine) aus verschiedenen Regionen im KI-fähigen Markdown-Format abrufen, ohne Einschränkungen bei der Skalierbarkeit.

Dieses Beispiel zeigt einen einfachen Anwendungsfall, aber Sie können mit komplexeren Abläufen experimentieren, andere Bright Data-Produkte integrieren oder die LLM-Eingabeaufforderung an verschiedene Aufgaben anpassen. Viele andere Anwendungsfälle werden ebenfalls unterstützt!

Et voilà! Sie haben jetzt einen Azure KI Foundry-Flow, der Websuchdaten abruft und sie als Kontext in einem RAG-ähnlichen Workflow verwendet.

Fazit

In diesem Blog-Beitrag haben Sie gelernt, wie Sie die SERP-API von Bright Data verwenden, um frische Nachrichtenartikel von Google abzurufen und in einen RAG-Workflow in Azure KI zu integrieren.

Der hier vorgestellte KI-Workflow eignet sich perfekt für alle, die einen Nachrichtenassistenten erstellen möchten, der Inhalte filtert, sodass Sie nur die Nachrichten lesen, die für die Themen relevant sind, die Sie interessieren. Wenn Sie fortgeschrittenere KI-Workflows erstellen möchten, sollten Sie die vollständige Suite der Bright Data-Tools zum Abrufen, Validieren und Transformieren von Live-Webdaten kennenlernen.

Melden Sie sich noch heute für ein kostenloses Bright Data-Konto an und experimentieren Sie mit unseren KI-fähigen Webdatenlösungen!