Podcast

KI im Einkauf | Inferenz und Reasoning: Weniger Risiko, mehr strategische Power

In der sechsten Folge unseres Podcasts KI im Einkauf sprechen Fabian Heinrich (CEO von Mercanis) und Dr. Klaus Iffländer (Head of AI bei Mercanis) über zwei bahnbrechende Methoden zur Optimierung von KI-Modellen im Einkauf: Inference Time Compute und Reasoning.Worum geht’s?

  • Was ist Inference und wie hilft Inference Time Compute, die Leistungsfähigkeit von LLMs bei komplexen Aufgaben zu steigern?
  • Wie kann mehr Rechenleistung die Qualität von Antworten verbessern und Entscheidungen im Einkauf unterstützen?
  • Was ist der Unterschied zwischen Inferenz und Reasoning, und wie helfen diese Techniken, logisches Denken in KI-Modellen zu integrieren?
  • Wie können vertikale KI-Agenten mit diesen Methoden im Bereich Risikomanagement, Lieferantenbewertung und Angebotsvergleichen eingesetzt werden?

Durch den Einsatz von Inference Time Compute und Reasoning werden vertikale KI-Agenten fähig, komplexere Aufgaben autonom zu lösen und noch präzisere, datengestützte Entscheidungen zu treffen. Diese Fortschritte ermöglichen eine intelligente Automatisierung im Einkauf und unterstützen Teams dabei, strategischere Aufgaben zu übernehmen.

Ist dies der nächste Schritt in der Weiterentwicklung von KI im Einkauf? Wir zeigen, wie diese Technologien die Beschaffungsprozesse optimieren und welche Rolle der Mensch dabei weiterhin spielt.

In eigener Sache: Zum Procurement Unplugged by Mercanis Podcast gibt es einen E-Mail-Newsletter. Jetzt HIER anmelden!

Unsere Sprecher
Fabian Heinrich
Fabian Heinrich
CEO & Co-Founder of Mercanis
Dr. Klaus Iffländer
Dr. Klaus Iffländer
KI Expert & Head of AI at Mercanis

Fabian Heinrich (00:01)
Liebe Zuhörerinnen und Zuhörer, herzlich willkommen zu einer weiteren Folge von Procurement Unplugged. Heute wieder mal zum Themenschwerpunkt KI mit Dr. KI Klaus Iffländer. In den letzten Folgen ging es Vertical Agents, es ging aber vor allem auch Trainingsdaten, synthetische Daten als Booster für Training und wie ich quasi den Unterschied, David, zwischen Goliath hiermit eliminieren kann. In der heutigen Folge geht es darum, was mache ich, wenn ich Limitierungen habe mit den Trainingsdaten.

Hierbei gibt es zwei Methoden. Das eine wäre das Thema Reasoning und das andere wäre, was wir jetzt als erstes besprechen, das Thema Inference Time Compute. Vielleicht für viele zwei fremde Begriffe, aber wie immer tauchen wir da ein, beleuchten das und erklären es einfach und verständlich mit unserem Dr. KI. Herzlich willkommen, Klaus!

Dr. Klaus Iffländer (01:00)
Hallo Fabian, schön, dass ich wieder dabei sein kann.

Fabian Heinrich (01:04)
Ja, fangen wir doch gleich mal an. Ich meine, habe es ja schon angesprochen, Limitierung in den Trainingsdaten und dass es da irgendwie zwei Methoden gibt. Ja, vielleicht könntest du da mal näher drauf eingehen.

Dr. Klaus Iffländer (01:17)
Ja, gerne. Also bei der herkömmlichen Inferenz ist es ja so, dass ein Large-Language-Modell...

Fabian Heinrich (01:23)
Vielleicht hier mal nochmal, was ist denn die Inferenz? Vielleicht ist das auch vielen unseren Einkäufern und Zuhörern auch nicht so ganz klar.

Dr. Klaus Iffländer (01:27)
So ja. Genau. Also wenn wir mit Large Language Models arbeiten, also Chat GPT und Kollegen, dann ist es ja so, dass die auf großen Textmengen erstmal trainiert werden. Und wenn man jetzt kommt und in dieses bekannte Chat Fenster eine Frage stellt und eine Antwort haben möchte, dann ist das, was das Large Language Modell im Hintergrund tut, das ist das, was man Inferenz nennt. Das heißt, es versucht auf Basis der Trainingsdaten und auf der gestellten Frage im Chat Fenster

Eine Antwort abzuleiten oder technisch ausgedrückt vorherzusagen, denn es durchsucht in Wirklichkeit die ganzen Trainingsdaten und versucht, die Antwort zu finden oder den Text zu finden, der mit hoher Wahrscheinlichkeit als Antwort von mir als Nutzer akzeptiert wird oder als eine vernünftige Antwort angesehen wird. Das nennt man Inferenz. So und wie gesagt bei der regulären Inferenz.

Es ist so, dass die Trainingsdaten herangezogen werden und es wird versucht, eine Prognose, eine Vorhersage zu treffen für die richtige Antwort oder eine richtige Antwort. jetzt bei der, was jetzt die neue Technologie ist, dieses Influence Time Compute, ist quasi eine Erweiterung dessen. Also es geht über diese reguläre Inferenz noch hinaus und ist eigentlich jetzt nicht eine neue Technik oder Technologie.

Sondern es ist eine Ansammlung von Methoden. Zum Beispiel die sogenannte adaptive Berechnung. Das heißt, je nachdem, was ich für eine Frage stelle als User oder was die Aufgabe gerade ist an das Large-Language-Model, entscheidet das Modell adaptiv, ob es mehr Rechenleistung darauf verwenden wird.

Fabian Heinrich (03:20)
Ich kann mir hier mal ein Beispiel bringen, wenn man jetzt irgendwie im Sourcing oder ist vielleicht.

Dr. Klaus Iffländer (03:32)
Ja, gute Frage. Also stell dir vor, du hast verschiedene Angebote, die du miteinander vergleichen möchtest. Und das ist ja was, was Large-Language-Models heute schon können, dass man einfach zum Beispiel drei PDFs rein gibt von drei Lieferanten, die auf dieselbe Ausschreibung reagiert haben. Und stellen wir uns vor, die PDFs sind jetzt sehr umfangreich, dann werden die halt alle ausgewertet und ...

Das ist jetzt eine relativ komplexe Aufgabe, weil das LLM soll bestimmte Dimensionen extrahieren, auf deren Basis die Angebote miteinander verglichen werden. Und da würde das LLM jetzt entscheiden, okay, da müsste ich jetzt mehr Rechenleistung darauf verwenden, weil hier gibt es jetzt vielleicht mehrere richtige Antworten und es ist nicht ganz klar. Oder da müssen bestimmte Dinge erst mal extrahiert werden. Und so würde sich das halt der Aufgabe entsprechend adaptieren. Es ist halt eine komplexere Aufgabe, als wenn ich jetzt frage... "Chat GPT, was bist du oder wer hat dich hergestellt?" Das weiß halt Chat GPT

Fabian Heinrich (04:33)
Ja.

Dr. Klaus Iffländer (04:37)
Genau, so meinste sowas,

Fabian Heinrich (04:39)
Genau, für mich wäre es schwer zu greifen, wie würde man die Rechenleistung allokieren.

Dr. Klaus Iffländer (04:47)
Genau, also das ist das. Und die nächste Sache, die ich kurz erklären wollte, war, was man denn mit der Rechenleistung macht. Denn wenn ich jetzt einfach nur mehr Rechenleistung gebe, wird ja die Antwort noch nicht automatisch besser, sondern die Frage ist dann auch, was kann ich denn mit zusätzlicher Rechenpower anstellen. Also wenn ich jetzt noch mehr Nvidia Grafikkarten gekauft habe. Und da gibt es eine Technik, die nennt sich Selbstbewertung und Verbesserung.

Und die funktioniert so, wenn wir jetzt bei dem Beispiel bleiben, jetzt nicht eine Antwort als die richtige angesehen wird, sondern es werden gleichzeitig mehrere Antworten generiert. Und jetzt ist auch klar, warum das natürlich mehr Rechenleistung benötigt. Denn stellen wir uns vor, das LLM vergleicht jetzt die drei Angebote und sagt, das eine ist vielleicht das günstigste und das andere hat aber bezüglich der Lieferzeit besten Konditionen.

Also der Anbieter ist vielleicht der Schnellste und auf die Art vergleicht es vielleicht. Und so gesehen sind dann mehrere Antworten richtig. Andere Dimensionen sind natürlich denkbar. Zum Beispiel geringste Ausfallwahrscheinlichkeit der Lieferanten oder Kombination der Faktoren miteinander. Und so würde das LLM eben mehrere Antworten erst mal generieren und hätte dann wiederum einen Algorithmus, zu entscheiden, welche der Antworten denn jetzt die beste ist oder mit der höchsten Wahrscheinlichkeit das beste Ergebnis ist und würde das dann dir als User wieder zurückgeben? Ist das verständlich, Fabian?

Fabian Heinrich (06:27)
Ja, glaube, dass das hat es mal ganz gut dargelegt, dass man so quasi diesen Constrain der zu geringen Datenmenge dann ausgleichen kann durch eine angepasstere, bessere Allokation der Computing Power.

Dr. Klaus Iffländer (06:46)
Genau, so kann man es sehen. je nach Aufgabenstellung. LLM wächst mit seinen Aufgaben.

Fabian Heinrich (06:54)
Ja, glaube, ist ein gutes Stichwort, wie man da generell agieren kann bei den LLMs. Jetzt ist natürlich die Frage, so eine Inferenz, wenn ich das jetzt richtig anwende, also das muss ja der Anbieter der Vertical Agents dann auch anbieten, wie generiere ich denn daraus Vorteile? Also wir hatten jetzt schon gesprochen, Computing Power Allokation.

Dr. Klaus Iffländer (07:23)
Genau. Ja, da kommt es natürlich darauf an, dass der Softwarehersteller, also der Designer dieses Agenten, dann auch den Kunden sehr gut versteht. Das heißt, man muss diese Anwendungsfälle dann bestmöglich auch abdecken mit der Rechenleistung, die man dann da auch zuweisen kann. Zum Beispiel, was man machen kann, ist die

Kontextinformationen erweitern. Stell dir vor, du hast ein LLM und es wurde über Lieferantenverträge trainiert. Und normalerweise, wenn du so eine Frage stellst wie, welche Zahlungsbedingungen gelten für den Lieferant X, dann würde der halt die Trainingsdaten durchsuchen und das dann direkt beantworten.

Wenn du jetzt aber den Kontext erweiterst und noch bessere Antworten geben möchtest, dann kannst du diese intensive Inferenznutzen, also diese Techniken, die wir gerade besprochen hatten, und kannst sozusagen diese Suche oder die Generierung der Antwort noch erweitern, sodass zum Beispiel die gesamte Vertragshistorie des Lieferanten durchsucht wird und aktuelle Marktdaten oder aktuelle Nachrichten über dieses Unternehmen und könntest all diese Informationen noch mit einbeziehen und somit noch bessere und kontextbezogene Antworten geben.

Also nochmal, ... um ans reale Beispiel anzubinden. So würde man diese Vorteile generieren.

Fabian Heinrich (08:54)
Und das dient mir natürlich zur besseren Entscheidungsunterstützung, wenn ich natürlich dann einen qualitativ hochwertigeren Agenten habe. Und die Hypothese wäre dann, ich könnte deutlich komplexere Aufgaben damit lösen und abhandeln, weil der Agent dann irgendwie noch intelligenter ist, aber auch in logischer Art und Weise die Sachverhalte wahrnehmen kann.

Dr. Klaus Iffländer (09:22)
Ganz genau. Und zwar einmal aufgrund dieser Techniken, die ich erklärt hatte, also einfach mehr Rechenleistung. Und zum anderen kannst du natürlich mit der Rechenleistung auch noch mehr Daten verarbeiten und somit noch mehr Kontext reinbringen in die Antworten und in die Datenauswertung.

Fabian Heinrich (09:37)
Und was wären da dann noch so Beispiele für?

Dr. Klaus Iffländer (09:40)
Zum Beispiel externe Datenbanken oder APIs. Also du könntest ja zum Beispiel noch aktuelle Nachrichtenquellen durchsuchen, denn manchmal sind ja Unternehmen gerade in den Medien präsent oder in Fachpublikationen. Die könntest du halt noch anzapfen. Oder verfügbare APIs, die angebunden wurden, über zum Beispiel Preisinformationen oder Marktdaten, über Verfügbarkeit oder Lieferengpässe.

All diese Dinge könnten dann per intensiver Inferenz auch noch in deine Antworten hinein integriert werden und würden so dem User einfach eine viel bessere Informationsgrundlage geben, dann Entscheidungen zu treffen.

Fabian Heinrich (10:23)
Und wo könnte sich das Ganze hin entwickeln? Also angenommen, ich habe dann immer bessere und intelligentere Agents, wo könnte das hingehen? Rechenleistung ist ja dann irgendwann auch ein Constrain. Also erster Constrain waren die Daten, das löst man mit synthetischen Daten, dann irgendwann ist es die synthetischen Daten Constrain, dann geht man an die Rechenleistung, wo..

Wenn das aufhört, wo ist dann die Weiterentwicklung oder wie siehst du da Zukunft?

Dr. Klaus Iffländer (10:56)
Ja, also aktuell ist es so, da hat ja glaube ich jeder von gehört, dass diese Grafik Rechenpower halt schwer zu bekommen ist. Selbst wenn man die hohen Preise dafür bezahlt, dann sind die halt nicht unbedingt lieferbar. Obwohl Nvidia halt hart daran arbeitet. Aber das ist aktuell so ein begrenzender Faktor. Ich glaube aber, dass sich der mehr und mehr lindern wird. Denn die...

Wettbewerber von Nvidia schlafen ja nicht, sondern entwickeln auch entsprechende Grafikrechenleistungen. Und so werden die Preise sich über die Zeit hinweg wieder einpendeln für diese Rechenpower. Andere Player kommen neu hinzu in dem Feld, sodass sich das halt einpendeln wird. Und deswegen glaube ich, dass diese intensive Inferenz den Usern von Agenten oder insbesondere vertikalen Agenten halt in absehbarer Zukunft zu Gute kommen wird.

Also diese Vorteile werden wir halt demnächst sehen. Auch wenn jetzt Hardware und Software halt noch so ein begrenzender Faktor ist, wird sich das über die Zeit hinweg abschwächen. Das ist meine Prognose.

Fabian Heinrich (12:05)
Ja, meine im Gegensatz dazu, wir haben es eingangs schon angesprochen, gibt es ja noch die andere Methode, wie man den limitierten Faktor Daten dann mit Rechenpower

Wir haben es auch schon paar Mal angesprochen, wichtig ist ja dann das logische Denken zu verbessern von den Agenten und das andere Thema wäre dann das Reasoning. Dann würde ich da im Vergleich ganz gerne nochmal eingehen. Vielleicht fangen wir ganz einfach an, was ist mit dem Reasoning gemeint und es sind ja immer irgendwie diese englischen Buzzwords, vielleicht kann man das auch nochmal erklären, was das dann auch im Deutschen bedeutet.

Dr. Klaus Iffländer (12:49)
Ja klar. Also Reasoning bedeutet im Deutschen eigentlich Schlussfolgern oder logisches Denken. Das heißt, man hat bestimmte Fakten gegeben und kann daraus quasi neue Fakten ableiten. Und das ist eine Sache, der LLMs aktuell noch nicht so gut sind, sondern aktuell ist es so, die verlassen sich hauptsächlich auf ihre Trainingsdaten, die zugegebenermaßen sehr umfangreich sind, weswegen die auch oft sehr, sehr gute Antworten geben.

Aber sie denken jetzt nicht so streng logisch wie wir Menschen. Nehmen wir so ein Beispiel. Wenn wir sagen, alle Äpfel sind Früchte und Früchte enthalten Vitamine, dann würde so ein LLM diese beiden Informationen erst mal lernen. Wenn ich jetzt aber frage: "Enthalten Äpfel Vitamine?" Da müsste man dafür logisch diese beiden Informationen verknüpfen. Dass Äpfel erstmal Früchte sind und damit als Früchte auch Vitamine enthalten.

Fabian Heinrich (13:50)
Also quasi klassischer Dreisatz.

Dr. Klaus Iffländer (13:54)
Genau, Deduktion. Damit haben LLMs heutzutage noch ihre Probleme. Es kommt aber zunehmend jetzt in die neuen Modelle, die jetzt rauskommen von den großen Anbietern, sodass wir damit quasi neue Informationen uns herleiten können. Für uns als Anwender bedeutet das einen großen Schritt, weil dadurch nicht alles per Trainingsdaten den LLMs beigebracht werden muss, sondern die LLMs werden dann zunehmend in diese Lage versetzt, sich aus den gegebenen Trainingsdaten, die ja oft sehr limitiert sind, neue Informationen rauszuziehen oder abzuleiten.

Fabian Heinrich (14:42)
Und ich meine, jetzt haben wir gerade die letzten 10, 15 Minuten viel über Inferenz gesprochen. Wie steht das im Kontext zu Inferenz? Kann ich das beides parallel benutzen oder sind es so unterschiedliche Ansätze?

Dr. Klaus Iffländer (14:57)
Also es verbraucht natürlich auch Rechenleistung. Also, um diese gegebenen Trainingsdaten zu durchsuchen und neue Schlüsse daraus zu filtern, brauchst du natürlich wiederum diese Rechenleistung von den Grafikchips. Und so gesehen kannst du natürlich beides benutzen. Du kannst halt mehrere Antworten generieren. Vielleicht sind die teilweise basierend auf den Trainingsdaten, teilweise auch auf logischen Schlussfolgerungen basiert oder beides zusammen.

Und so kann eben noch eine größere Informationsgrundlage verarbeitet werden oder überhaupt die Informationsgrundlage noch erweitert werden.

Fabian Heinrich (15:38)
Also reasoning wäre dann deiner Meinung nach nochmal eine Erweiterung von der Infarance.

Dr. Klaus Iffländer (15:45)
Ja, man kann es so und so sehen. Es ist halt eine weitere Technik, quasi aus den gegebenen Daten noch mehr rauszuholen, so wie auch die Inferenz.

Fabian Heinrich (15:54)
Genau, also bezüglich Technik, da vielleicht nochmal drauf einzugehen beim Reasoning, du hast ja die Deduktion ganz anschaulich erklärt. Im Gegenbeispiel dazu wäre natürlich die Induktion. Wenn man sich dann genauer einliest, hört man auch von der Abduktion und dann sieht man verschiedene tolle Grafiken, wo es dann das Chain of Sword Prompting und den Graph Neural Network geht, was dann auch mit GNNs beschrieben wird.

Also, klingt erstmal sehr abenteuerlich und je mehr man sich einlässt, ist sehr spannend. Vielleicht könntest du das auch nochmal näher erklären und wie man so eine Chain of Swords Prompting und GNNs dann auch nutzen kann.

Dr. Klaus Iffländer (16:42)
Ja, gerne. Also Deduktion haben wir schon erklärt, dass die Sache mit den Äpfeln und den Vitaminen. Induktion funktioniert genau andersrum. Da hat man also nicht die allgemeine Beobachtung zuerst, sondern die spezifische. Also zum Beispiel hast du einen Lieferanten, den hast du zehnmal beauftragt und beim ersten Mal fällt er aus. Also liefert nichts, beim zweiten Mal liefert er auch nichts, beim dritten Mal auch nicht.

Fabian Heinrich (16:46)
Ich muss jetzt wieder raus.

Dr. Klaus Iffländer (17:10)
Dann könnte man daraus induktiv schließen, dass er gar nicht liefern wird. Du nimmst eine spezifische Beobachtung und verallgemeinerst die auf die gesamte Situation. Das wäre die Induktion. Dann die Abduktion ist so, dass du halt auch von einer spezifischen Beobachtung schließt und sagst, okay, der Lieferant ist einmal ausgefallen. Und eine Theorie wäre, dieser Lieferant fällt immer aus.

Fabian Heinrich (17:15)
Mhm, ja.

Dr. Klaus Iffländer (17:40)
Dann würde das zu der Beobachtung erst mal passen. Dann liefert er aber vielleicht beim zweiten Auftrag und beim dritten wieder nicht. Dann könntest du deine Theorie wieder anpassen und sagen, vielleicht liefert er jedes zweite Mal Felder aus.

Fabian Heinrich (17:54)
Es ist jetzt schlussendlich sind das verschiedene Logik Folgen, Deduktion, Induktion, Abduktion. Es ist natürlich die Frage, wie hängt das dann mit dem Chain of Thought-Prompting zusammen und den Graph Neural Networks?

Dr. Klaus Iffländer (18:06)
Ja, beim Chain-of-Thought-Prompting ist es so, ist eine Prompting-Technik. Und zwar forderst du explizit das LLM auf, die Denkschritte darzulegen. Und das sozusagen, es forciert quasi, dass das LLM noch mehr drüber nachdenkt, sozusagen, welche Schritte da durchlaufen werden müssen, da zu guten Ergebnissen zu kommen. Also es ist so eine Prompting-Technik, da...

Fabian Heinrich (18:11)
Mhm.

Dr. Klaus Iffländer (18:35)
bessere Ergebnisse aus den gegebenen Trainingsdaten heraus zu holen. Ist aber nicht immer sehr streng logisch, aber fordert das LLM quasi so bisschen heraus. Genau. war das andere? Graph neural networks, hattest du noch gefragt.

Fabian Heinrich (18:48)
Ja, jetzt ist natürlich der... Genau, richtig, ja, diese GNNs, man da auch hier dann als Buzzword hier und da hört.

Dr. Klaus Iffländer (18:58)
Genau, da geht es darum, Zusammenhänge zu modellieren zwischen Entitäten, in den Trainingsdaten oder in der Aufgabenstellung vorkommen. Zum Beispiel Beziehungen zwischen Lieferanten und Produkten und deren entsprechenden Verträge dazu. Die kannst du dann so abbilden. Und wenn man die einmal so modelliert hat, wie so ein Netzwerk zwischen diesen Objekten, dann gelingt es eben dem LLM auch da komplexe Schlussfolgerungen abzuleiten. kurz erklärt.

Fabian Heinrich (19:31)
Und wenn man jetzt mal wieder auf die spannenden Anwendungsbereiche guckt, also unterscheiden die sich von der Inferenz. Also bei Inferenz konnte ich ja relativ komplexe Sachverhalte dann auch abbilden. jetzt irgendwie im Risikomanagement oder Auswahl der Lieferanten oder im Angebotsvergleich. Habe ich ähnliche Möglichkeiten im Reasoning oder geht das Ganze dann noch weiter?

Dr. Klaus Iffländer (19:56)
Ich würde sagen, die Anwendungsfälle sind eigentlich die gleichen, weil das sind ja die typischen Anwendungsfälle, mit denen wir als Menschen im Procurement jetzt auch konfrontiert sind.

Fabian Heinrich (20:06)
Es geht immer im Anwendungsfall komplexe Sachverhalte und wo ist logisches Denken erforderlich. Und in beiden kann ich mir dann der Inferenz oder des Reasonings behelfen, das LLM so zu optimieren, dass es so logisch denken kann und die Komplexität so wahrnehmen kann wie ein erfahrener Category Buyer.

Dr. Klaus Iffländer (20:33)
Richtig. Und zwar so, dass das LLM sich dann Dinge auch herleiten kann. Zum Beispiel aus einer Vertragsanalyse könnte das dann logisch bestimmte Risiken ableiten, indem es Schlüsse zieht aus den Verpflichtungen. Wenn dann halt drin steht, Auftragnehmer verpflichtet sich zu den und den Sachen und der Auftraggeber verpflichtet sich im Umkehrschluss zu den und den Sachen, dann kann das LLM dann daraus logisch Schlüsse ziehen.

Fabian Heinrich (20:53)
Nö.

Dr. Klaus Iffländer (21:02)
und eben zum Beispiel Risiken ableiten. Was passiert in den und den Situationen? Solche Dinge könnte das LLM sich dann selbstständig erschließen und uns als hoffentlich immer noch führender Händler dann darauf hinweisen, welche Risiken dort...

Fabian Heinrich (21:21)
Das wäre jetzt meine nächste Frage. Habe ich nicht irgendwo dann auch riesig und klar, dann habe ich das logische Denken da reingebracht in meinem Vertical Agent, aber kann ich dem wirklich 100 Prozent vertrauen oder sollte nicht dann als letzte Instanz immer noch der Category Buyer entsprechend agieren?

Dr. Klaus Iffländer (21:40)
Das ist wirklich die Frage, wie weit man es automatisieren will. Oft spielen da noch andere Überlegungen eine Rolle. Klar stellt man sich das immer so vor, dass die Menschen da die letzte Instanz sind. Und oft ist es sicherlich auch richtig, aber oft, wenn es zum Beispiel etablierte Prozesse sind und es lediglich eine Folgeverhandlung ist von einer Sache, die schon zehnmal abgeschlossen wurde, vielleicht geht man dann doch den Schritt, das komplett zu automatisieren. Weiß nicht, wie siehst du das? Braucht man immer den Menschen im Loop? Ich denke, es gibt immer auch die Fälle, die

Fabian Heinrich (22:13)
Ja, glaube, kommt auf die Prozesse drauf an. glaube, wenn wir über Themen sprechen wie Lieferanten-Onboarding, wir über Themen sprechen wie Lieferantenqualifizierung, gerade Compliance-Themen, das kann ich natürlich schon sehr durchstrukturieren, ja auch irgendwie proaktives Risikomanagement.

Ich glaube, wenn es jetzt vielleicht Strategien geht für eine Category, wenn es jetzt vielleicht sage ich mal, langfristige Entscheidungen geht, mit welchem Lieferanten arbeite ich zusammen, vielleicht spielen da natürlich auch noch Soft-Faktoren eine Rolle oder spielen da natürlich auch Faktoren eine Rolle, jetzt auf der langfristigen Beziehung des Kunden oder des Lieferanten irgendwo fußen und es natürlich da auch irgendwo zwischenmenschliche Faktoren gibt. Ich meine, wenn wir ausgewählt werden von Kunden als Software hier und da ist dann auch immer ein Faktor kultureller Fit oder menschlicher Fit. Also ich glaube, da erreichen wir natürlich schon an den Grenzen von diesem Reasoning und von der Entscheidungsfähigkeit.

Dr. Klaus Iffländer (23:18)
Ja klar, kulturellen Fit kannst du schlecht logisch ableiten, denke ich.

Fabian Heinrich (23:23)
Und ich meine, am Ende des Tages ist Lieferantenbeziehung sehr erfolgreich, wenn sie auch langfristig funktioniert. da spielen dann natürlich immer wieder Menschen die Rolle. Also ich glaube, so langfristige Lieferantenentwicklung, beziehungsweise Lieferantenbeziehungsmanagements, ich glaube da muss dann schon weiterhin der Mensch das Sagen haben.

Dr. Klaus Iffländer (23:47)
Ja, denke ich auch. Also da wird es aber glaube ich im Zusammenspiel große Wertschöpfung geben. Zum Beispiel die Einkaufsstrategie ist halt so eine Sache, wo dir halt viele Informationen als Grundlage eine sehr gute Entscheidungsposition dann geben. wo dir auch logisches Denken dann zum Beispiel helfen wird, wenn das LLM sich das ableitet, was sind die Vor- Nachteile von bestimmten Einkaufsstrategien. Aber am Ende wirst du dann trotzdem als Mensch, die Entscheidung treffen.

Fabian Heinrich (24:18)
Ich meine, das ist ja auch irgendwo da, wo wir hinwollen. Ich meine, die erste Stufe war, wir digitalisieren alles. Dass wir zumindest mal ein digitales System of Record haben. Wenn ein Mitarbeiter die Firma verlässt oder am Urlaub ist, dann haben wir da alles in unserem System of Record. Der zweite Shit wäre irgendwie, automatisieren. Ob man das so prozessautomatisieren oder durch RPAs oder dann jetzt durch...

APA, Atlantic Process Automation machen, das sei mal dahingestellt, aber wir automatisieren, schaffen somit Freiräume, der Mitarbeiter kann mehr Strategie machen. Die einfachen strategischen Aufgaben können wir dann in Zukunft auch von Vertical Agents und den LLMs abhandeln lassen und somit bekommt natürlich der Category bei immer mehr Freiraum für wirklich strategische Aufgaben, für die hochkomplexen Aufgaben und vor allem für das Lieferantenmanagement im Sinne der Beziehung, also quasi diese langfristige Lieferantenbeziehung zu managen und das auch zu entwickeln. ich meine, daraus können dann natürlich noch mal zusätzliche Mehrwerte entstehen in dieser Symbiose.

Dr. Klaus Iffländer (25:25)
Ja, denke ich auch. Meine persönliche Meinung ist sogar sowieso, dass der meiste Mehrwert genau an dieser Schnittstelle entsteht. Also wo LLMs oder überhaupt intelligente Systeme... sehr eng mit dem Menschen zusammenarbeiten und wo eben genau diese Symbiose entsteht von intensiver Rechenpower, die halt viel versteht, viel Kontextinformationen gibt und dann aber der menschlichen Intuition und zusammen ist es dann glaube ich das beste Team, was man haben kann.

Fabian Heinrich (25:57)
Ich glaube, ist das perfekte Schlusswort, Klaus. Ich glaube, wir hatten wieder eine sehr spannende Folge. Heute ging es bisschen technischer rein in das Thema Inferenz und Reasoning. Aber dann umso überraschender, dass wir dann am Ende zu dem Schluss kommen, dass es ohne den Menschen doch nicht geht und der Mensch eigentlich der Schlüssel ist für erfolgreiche und langfristige Lieferantenbeziehungen, aber natürlich extrem von den neuen Technologien hier profitieren kann.

In diesem Sinne vielen Dank noch einmal und wir freuen uns auf die nächste Folge.

Dr. Klaus Iffländer (26:32)
Ich habe zu danken. Bis bald, Fabian.

Auch verfügbar auf
Button to direct to the Spotify pageButton to direct to the Apple Podcast page

Mehr Podcasts entdecken

NEWSLETTER
Jetzt für den Newsletter anmelden!
Bleiben Sie auf dem Laufenden und erhalten Sie News zum Thema Procurement und Mercanis, sowie neue Webinare, Best-Practice Guides, Whitepaper, Fallstudien, Surveys und mehr.
Jetzt anmelden