Back

Analyse von Angeboten mittels AI

AI für Handwerker Angebote

Nachdem wir uns im letzten Jahr ein Haus gekauft haben, sind wir aktuell viel mit der Renovierung und dem Umbau beschäftigt. Unsere Immobilie wurde 1989 gebaut und ist dank der Vorbesitzer in einem sehr gepflegten Zustand.

Unser Wunsch war es, ein Bad zu renovieren, im ersten Stock die Böden und Türen zu erneuern, einen Teil der Wände neu zu streichen, die alte Ölheizung auszutauschen und eine PV-Anlage zu installieren. Ein paar Dinge haben wir selbst mit tatkräftiger Hilfe von Verwandten und Freunden gemacht, aber für Bad, Heizung und PV-Anlage war es unumgänglich, dass wir jemanden beauftragen müssen.

Die Analyse der Angebote, die Auswahl der Handwerker und Fachfirmen und die Beurteilung der Empfehlungen ist nicht einfach, wenn man keinerlei handwerklichen Hintergrund hat oder auch niemanden kennt, der sich beruflich damit auskennt.

Ich habe die Planung und Beauftragung des Bads, der Heizung und der Solaranlage mit Hilfe von LLMs gemacht. Das klappt in vielen Fällen wunderbar und ich möchte hier ein paar Tipps weitergeben.

Welches Modell soll ich nutzen?

Es gibt viele Anbieter von KI Modellen. Ob jetzt direkt via Chat GPT App oder Website, via Claude, via Google Gemini, Google AI Studio, Perplexity AI oder Grok: es gibt zahllose Chat-Fenster, durch die man mit KI Modellen interagieren kann.

Egal bei welchem Anbieter ist die Auswahl des Modells sehr wichtig. Für analytische Aufgaben, die viel Kontext verarbeiten und womöglich mehrere Zwischenschritte benötigen, um zu einem Ergebnis zu kommen (wie der Beurteilung von Angeboten oder der Planung von Anlagen), bietet es sich an, ein Modell mit Reasoning zu wählen.

In meiner Erfahrung können die Modelle so besser mit der Komplexität und Vielschichtigkeit umgehen. Ich habe die besten Ergebnisse mit Gemini Pro oder Claude Opus erzielt (beides Reasoning Modelle). Beide Modelle sind sehr intelligent und verstehen komplexe Sachverhalte ausreichend, um gute Empfehlungen abzugeben.

Eine aktuelle Übersicht über die Intelligenz der Modelle findet man bei Artificial Analysis.

Auch die KI profitiert von Google

Auch wenn in das Training der Modelle bereits viele Informationen eingehen, ist der Knowledge Cutoff, d.h. der Stichtag, zu dem öffentlich verfügbare Informationen in das Training des Grundmodells eingegangen sind, immer ein Problem. Wenn ich eine Frage zur Einspeisevergütung für Solaranlagen habe und das Modell kennt die neusten gesetzlichen Regelungen noch nicht, so hilft mir die Antwort auf Basis von alten Informationen nicht.

Damit das Modell auch wirklich alle Informationen hat, muss man diese entweder selbst bereitstellen, indem man entsprechende Dokumente hochlädt oder das Modell so aufrufen, dass es Zugriff auf eine Websuche hat. Viele Anbieter bieten den Zugriff für das Modell auf eine Suchmaschine als explizites Feature an.

Dokumente hochladen

Einige Anbieter ermöglichen es weiterhin, Dokumente einem Prompt anzufügen, indem man sie hochlädt. Wenn das nicht geht, man nicht für diese Funktionalität zahlen möchte oder aber der Typ des Dokuments nicht unterstützt wird, gibt es Tools wie markitdown die viele Dateien in Markdown konvertieren. Dieses Markdown kann man direkt in den Prompt einfügen. Man kann markitdown auch via uvx installieren: uvx.sh/markitdown.

Verkleinerung von PDF Dateien

Selbst wenn man Dokumente hochladen kann, gibt es häufig ein Limit was die Größe der hochgeladenen Dateien angeht. Das war für mich häufig bei PDF Dateien ein Problem. Damit das weniger problematisch ist, kann man die PDF Datei verkleinern mit Tools wie I Love PDF. Ich kann nicht garantieren, dass der Anbieter die PDFs nicht auswertet oder verarbeitet. Deshalb würde ich hier nur Dinge hochladen, die keine sensitiven Daten enthalten.

Wie schreibe ich einen guten Prompt?

Auch wenn die Modelle immer besser mit unvollständigen oder ohne viel Bedacht geschriebenen Prompts umgehen können, steigert es doch die Qualtität der Ergebnisse, wenn man sich kurz Gedanken macht, welchen Kontext man dem Modell geben muss, damit man eine gute Antwort erhält.

Wenn ich eine PV-Anlage kaufen will, dann sollte man für die Beurteilung des Angebots kurz beschreiben, was die Gegebenheiten am Haus sind, welche Ziele man verfolgt, was man mit dem Anbieter besprochen hat oder welche Besonderheiten am Angebot zu bedenken sind. Mir war es wichtig, dass unsere Anlage gut in Home Assistant integrierbar ist und das habe ich explizit in den Prompts hervorgehoben.

Dabei muss man sich bei den Formulierungen nicht so viel Mühe geben, aber es ist wichtig, dass das Modell weiß, in welcher Situation es sich befindet. Man kann das Modell auch fragen, ob Dinge unklar sind oder es mehr Informationen braucht, um bessere Ratschläge zu geben.

Schwarmintelligenz

Ich versuche immer den gleichen Prompt an mehrere Modelle zu geben, um die Ergebnisse zu vergleichen. Das Unterschiede zwischen den Ausgaben der verschiedenen Modelle helfen mir, die Prompts zu verfeinern und im Gespräch mit mehreren Modellen zu besseren Ergebnissen zu kommen.

Man kann die Ergebnisse von einem Modell auch in ein anderes Modell geben und um Kritik und genaue Analyse fragen. Gerade, wenn man darauf pocht, dass das Modell sehr kritisch ist, erhält man eine Vielzahl von genauen Beobachtungen.

Recherche in Foren und auf Reddit

Zusätzlich zu den Aussagen der Modelle kann man auf Reddit und in Foren recherchieren. Nur Google Modelle haben offiziell Zugriff auf Reddit (auch wenn sicher noch ein paar weitere Anbieter versteckt auf Basis von Reddit Daten die Modelle trainieren) und dort findet man abhängig vom Anwendungsfall sehr gute Tipps und Informationen. Es lohnt sich also auch ein wenig selbst zu recherchieren und sich einzulesen.

Wie beurteile und prüfe ich die Ergebnisse?

Bisher haben die Modelle bei mir keine großen Fehler gemacht. Dennoch kommt es hin und wieder vor, dass ein Modell sich selbst verwirrt oder etwas falsch versteht. Auch wenn es bei mir nicht der Fall war, ist es möglich, dass ein Modell von einer falschen Tatsache extrem überzeugt ist oder Wissen, das ihm fehlt, sich einfach ausdenkt. Man spricht hier tatsächlich in Anlehnung an den Menschen von Halluzinationen.

Damit das auffällt ist es wichtig, dass man sich im Detail durchliest, was das Modell empfiehlt und wieso. Das tolle an den Chat Modellen ist, dass man nachfragen kann, wie das Modell zu gewissen Schlussfolgerungen kommt und sich die Gedankengänge erklären lassen kann.

Hin und wieder hilft es auch, sich das Reasoning, also den Gedankengang des Modells, durchzulesen, um zu verstehen, wieso das Modell tut, was es tut. Man kann das Modell dann auch im Prompt darauf hinweisen, dass es gewisse Dinge bedenkt.

Der eigene Berater

Für mich sind die KI Modelle in den letzten Monaten zum Berater bei größeren und kleineren Projekten geworden. Ich orientiere mich gerne an den Ergebnissen und Erfahrungen von anderen und tatsächlich sind die KI Modelle, aufgrund der Art und Weise, wie sie trainiert sind, die Destillation der Erfahrungen und dem Wissen vieler.

Ich habe viele nützliche Tipps erhalten und bei dem einen oder anderen Projekt ist der KI etwas aufgefallen, was ich so nicht bedacht hatte. Ich kann nur empfehlen, es einmal auszuprobieren und sich die Ergebnisse genau anzusehen.