Heim  >  Artikel  >  Backend-Entwicklung  >  Automatisieren der Azure-Dokumentation mit einem KI-Assistenten

Automatisieren der Azure-Dokumentation mit einem KI-Assistenten

Susan Sarandon
Susan SarandonOriginal
2024-10-25 06:38:29411Durchsuche

Automating Azure Documentation with an AI Assistant

Die Verwaltung und Dokumentation von Azure Resource Groups (RGs) in großen Umgebungen kann zeitaufwändig und kompliziert sein. Aber was wäre, wenn Sie den Prozess der Erstellung von Dokumentationen automatisieren könnten, die nicht nur erklären, welche Ressourcen vorhanden sind, sondern auch, wie sie miteinander in Beziehung stehen?

In diesem Artikel untersuchen wir, wie ein einfaches Python-Skript LLMs (Large Language Models) wie OpenAI oder Azure OpenAI nutzen kann um die Erstellung umfassender Markdown-Dokumentation aus ARM-Vorlagen zu automatisieren. Was dieses Tool leistungsstark macht, ist nicht die Verwendung komplexer Agenten-Frameworks oder schwerer Infrastruktur, sondern reines Python in Kombination mit etablierten Tools wie Azure CLI und der OpenAI-API. Es kann sogar mit anderen KI-Anbietern und lokalen LLMs mithilfe von Ollama oder anderen ähnlichen Tools verwendet werden.

Keine Notwendigkeit für komplexe Agenten-Frameworks

Ein weit verbreitetes Missverständnis ist, dass man ausgefeilte Agenten-Frameworks benötigt, um die Leistungsfähigkeit von LLMs effektiv zu nutzen. Tatsächlich können Sie mit vorhandenen Tools und einfachen Skripten leistungsstarke, automatisierte Arbeitsabläufe erreichen. In dieser Lösung kombinieren wir:

  1. Python: Als Skriptsprache, wie sie häufig installiert und verwendet wird.
  2. Azure CLI: Zum Abrufen von ARM-Vorlagen aus Azure-Ressourcengruppen.
  3. OpenAI-API-Aufrufe: Zum Generieren einer für Menschen lesbaren Dokumentation aus ARM-Vorlagen.
  4. Markdown: Als Ausgabeformat für die Dokumentation, das sich problemlos in jede Wissensdatenbank integrieren lässt.

Das Ergebnis? Ein sauberes, effizientes Skript, das Dokumentation erstellt, ohne dass komplizierte Tools oder KI-gestützte Orchestrierung erforderlich sind.

Quellcode von Azure Assistants

Der Quellcode ist in diesem Github-Repository verfügbar: itlackey/azure-assistants. Derzeit enthält es ein einzelnes Python-Skript, das die Azure CLI und die OpenAI-API nutzt, um Markdown-Dokumentation aus ARM-Vorlagen zu generieren. Wenn Interesse besteht oder ich Bedarf habe, kann das Repository mit zusätzlichen Tools und Skripten aktualisiert werden, um andere Aufgaben zu automatisieren.

So funktioniert das Skript

Das Herzstück dieses Tools ist das Skript document_resource_groups.py. Es bewirkt diese vier Dinge:

  1. Alle Ressourcengruppen abrufen im aktuellen Azure-Abonnement.
  2. Verwendet az CLI zum Exportieren von ARM-Vorlagen aus Azure-Ressourcengruppen.
  3. Wir Parsen die Vorlagen und senden sie an eine OpenAI-kompatible API.
  4. Das LLM wird verwendet, um Markdown-Dokumentation zu generieren, die zur Aufnahme in eine Wissensdatenbank bereit ist.

Ressourcengruppen auflisten

Der erste Schritt besteht darin, alle Ressourcengruppen in Ihrem Azure-Abonnement abzurufen. Dies geschieht mit dem Befehl az CLI aus unserem Python-Skript. Anschließend durchlaufen wir sie, um die ARM-Vorlage abzurufen.

result = subprocess.run(
    ["az", "group", "list", "--query", "[].name", "-o", "tsv"],
    stdout=subprocess.PIPE,
    text=True,
)
resource_groups = result.stdout.splitlines()

ARM-Vorlagen exportieren

Auch hier ruft das Skript mithilfe der Azure CLI die ARM-Vorlagen für jede Ressourcengruppe im aktuellen Abonnement ab. Diese Vorlagen enthalten detaillierte Konfigurationsinformationen für alle Ressourcen, einschließlich ihrer Netzwerk- und Sicherheitseinstellungen.

export_command = [
    "az", "group", "export",
    "--name", resource_group_name,
    "--include-parameter-default-value",
    "--output", "json",
]

Zusammenfassen mit LLMs

Als nächstes sendet das Skript die ARM-Vorlage zur Zusammenfassung an OpenAI (oder Azure OpenAI). Hier passiert die Magie. Anstatt in komplexe Agenten-Workflows einzutauchen, stellen eine einfache Systemmeldung und eine Benutzeraufforderung dem LLM genügend Kontext zur Verfügung, um eine aufschlussreiche Dokumentation zu erstellen.

response = client.chat.completions.create(model=model, messages=messages)

Die Eingabeaufforderung stellt eine erwartete Ausgabevorlage bereit und weist den LLM an:

  • Listen und beschreiben Sie jede Ressource.
  • Erklären Sie, wie Ressourcen miteinander zusammenhängen.
  • Heben Sie wichtige Netzwerkkonfigurationen hervor.

Dadurch kann das LLM eine strukturierte, leicht lesbare Dokumentation erstellen, ohne dass eine aufwendige Orchestrierung erforderlich ist.

Generieren einer Markdown-Dokumentation

Der letzte Schritt ist das Generieren einer Markdown-Datei, die die Details der Ressourcengruppe enthält. Die Titelseite enthält Metadaten wie den Namen der Ressourcengruppe, das Datum und Tags. Die KI-generierte Dokumentation wird dann als Inhalt des Dokuments hinzugefügt.

front_matter = f"---\n"
front_matter += f'title: "{resource_group_name}"\n'
front_matter += f"date: {date}\n"
front_matter += f"internal: true\n"

Markdown ist ein universelles Format, das eine einfache Integration dieser Ausgabe in viele Dokumentationssysteme oder Wissensmanagementsysteme ermöglicht.

Anpassen der KI-Eingabeaufforderungen

Eine Schlüsselfunktion dieses Skripts ist die Möglichkeit, die an das LLM gesendeten Eingabeaufforderungen anzupassen. Hier können Benutzer die gewünschte Ausgabeart feinabstimmen:

  • Systemmeldung: Leitet den LLM an, eine Dokumentation zu erstellen, die sich auf die Erläuterung von Ressourcen, Beziehungen und Netzwerken konzentriert.

Beispiel:

    You are an experienced Azure cloud architect helping to create reference documentation that explains the resources within an Azure Resource Manager (ARM) template.

    The documentation you create is intended for use in a knowledge base. Your role is to describe the resources in a clear and human-readable way, providing details on the following:

    - What resources exist in the ARM template.
    - How the resources relate to each other.
    - The purpose of each resource (if possible).
    - Highlighting network configurations and data locations such as storage accounts and databases.
    - Be sure to include IP addresses in the documentation when they are available.
    - Include information about virtual network peering.
    - It is very important that you also include any potential security issues that you may find.
  • Benutzeraufforderung: Dynamisch generiert basierend auf der zusammengefassten Ressourcengruppe.

Beispiel:

    Provide detailed documentation of the following ARM template for resource group: 


    {template_content}


    The purpose of this documentation is to...

Indem diese Eingabeaufforderungen flexibel und einfach gehalten werden, vermeidet das Skript übermäßiges Engineering und liefert dennoch eine qualitativ hochwertige Dokumentation.

Ausführen des Skripts

Hinweis: Sie müssen az CLI und python3 auf Ihrem Computer installiert haben, bevor Sie dieses Skript ausführen.

Das Einrichten und Ausführen des Skripts ist unkompliziert:

  1. Bei Azure anmelden: Stellen Sie sicher, dass Sie mit der Azure-Befehlszeilenschnittstelle authentifiziert sind:
result = subprocess.run(
    ["az", "group", "list", "--query", "[].name", "-o", "tsv"],
    stdout=subprocess.PIPE,
    text=True,
)
resource_groups = result.stdout.splitlines()
  1. Führen Sie das Skript aus, um eine Markdown-Dokumentation zu generieren:
export_command = [
    "az", "group", "export",
    "--name", resource_group_name,
    "--include-parameter-default-value",
    "--output", "json",
]

Das Skript verarbeitet jede Ressourcengruppe, generiert ihre ARM-Vorlage und erstellt eine Markdown-Datei im Ausgabeverzeichnis.

Beispielausgabe

Hier ist ein Beispiel dafür, was das Skript generiert:

response = client.chat.completions.create(model=model, messages=messages)

Diese Ausgabe ist prägnant, lesbar und leicht verständlich – genau das, was Sie für interne Dokumentation oder Wissensdatenbankeinträge benötigen.

Abschluss

Azure Assistants ist ein perfektes Beispiel dafür, wie Sie vorhandene Tools und grundlegende Python-Kenntnisse nutzen können, um mit LLMs leistungsstarke Ergebnisse zu erzielen. Es sind keine aufwändigen Agenten-Frameworks erforderlich, wenn einfache Skripte in Kombination mit Azure CLI und der OpenAI-API eine klare, umfassende Dokumentation für Ihre Azure-Ressourcengruppen generieren können.

Dieses Tool zeigt, dass jeder mit grundlegenden Skriptkenntnissen mit den richtigen Eingabeaufforderungen und einer soliden Struktur KI nutzen kann, um die Cloud-Dokumentation zu automatisieren – was es zu einem wertvollen Assistenten für jedes DevOps- oder Infrastrukturteam macht.

Das obige ist der detaillierte Inhalt vonAutomatisieren der Azure-Dokumentation mit einem KI-Assistenten. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Stellungnahme:
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn