ChatGPT erzählt zur Pilzbestimmung (auch mal) gefährlichen Blödsinn

Es gibt 26 Antworten in diesem Thema, welches 2.815 mal aufgerufen wurde. Der letzte Beitrag (25. Dezember 2025 um 16:23) ist von Bernhard 3.

  • Da es hier um Pilzbestimmung geht, wollte ich von meinem KI-Erlebnis am WE erzählen. Ich fragte ChatGPT nach einem Pilz, den ich nicht sofort bestimmen konnte, also hab ich den mit Worten beschrieben:
    Ich suche einen Lamellenpilz, der zahlreich auf Bäumen wächst und diese zersetzt, er ist ein ungefähr 5 cm hoher Pilz mit orangenem Hut und auch orange, rostfarbenem Sporenpulver. Der Stiel hat noch eine kleine Besonderheit, unten ist der leicht keulig verdickt.

    hier die Antwort von der KI:


    Das klingt nach einer sehr guten Beschreibung — wir können das schon stark eingrenzen.
    Lass uns die Merkmale kurz zusammenfassen:

    Deine Beschreibung:

    • Wuchsweise: zahlreich an Bäumen → also vermutlich saprobiontisch oder schwach parasitisch (zersetzt Holz)
    • Untergrund: auf Baumstämmen oder Stubben
    • Hut: orangefarben
    • Sporenpulver: orange bis rostfarben
    • Lamellenpilz: also kein Porling
    • Stiel: unten leicht keulig verdickt
    • Größe: ca. 5 cm hoch

    Das führt ziemlich deutlich in Richtung Flämmlinge (Gymnopilus) oder eventuell Stockschwämmchen-Verwandte (Pholiota).

    🔸 Wahrscheinlichster Kandidat: Zimtfarbener Weichporling (Gymnopilus penetrans)

    – trotz des Namens ein Lamellenpilz, kein Porling!
    Merkmale:

    • wächst büschelig an totem Nadel- und Laubholz
    • orange- bis zimtbrauner Hut, oft samtig
    • rostorange Sporenpulver
    • Lamellen gelblich → später rostorange
    • Stiel oft leicht keulig verdickt, faserig, mit ähnlicher Farbe wie der Hut
    • Geruch: schwach pilzartig oder bitterlich
    • Ungenießbar / leicht bitter


    Die KI war zwar auf der richtigen Spur, haut dann aber den Zimtfarbenen Weichporling raus mit der abstrusen Behauptung: das trotzt des Namens es sich um einen Lamellenpilz handeln würde.
    Es war letztlich der geflecktblättrige Flämmling!
    Jedenfalls wollte ich hier zeigen, dass die KI bei Pilzen auch gefährliche Fehler macht. Ich hoffe, dass es eine Ausnahme bleibt. (Das Sporenpulver des Flämmlings ist wirklich super schön rost-orange.)

  • Das ist ein sehr guter Beitrag, den sollte jeder einmal gelesen haben, bevor er sich an die KI-Pilzbestimmung macht.

  • Auf ähnliche Art habe ich auch schon die KI befragt. Das Ergebnis war vergleichbar. Dann habe ich Bilder von Kollagen hochgeladen und die KI gefragt, was sie da erkennt - verheerend. Es klingt zwar alles ganz blumig und vorerst mal glaubhaft. Genau da sehe ich wahnsinnig hohes Gefahrenpotential für unerfahrene. Denn wenn man dann genau schaut, was die KI so schreibt, sträubt es einem die Haare.

    Bei allen online "bestimmten" Pilzen handelt es sich lediglich um Bestimmungsvorschläge.

    Gezeigte Pilze zu 100 Prozent sicher nur über Bilder zu bestimmen ist nicht möglich, deren Verzehr kann im schlimmsten Falle tödlich enden!

    Eine Verzehrfreigabe gibt es ausschließlich vom Pilzsachverständigen/Pilzkontrolleur/Pilzberater vor Ort!

    Finde HIER den nächstgelegenen PSV

  • Hallo zusammen,.

    das ist ein Bezahlartikel, auf den du verlinkt hast. Da du es nicht dazugeschrieben hast, mache ich das.

    Die ganze Misere der KI-Aktivitäten im mykologischen Bereich wird momentan in einem Parallelthread deutlich. Da versucht jemand, die Database, auf der das KI-Instrument basiert, mit den Daten eines mutmaßlich falsch bestimmten Pilzes zu füttern. Dieser Mensch zeigt sich komplett davon unbeeindruckt, dass die anderen User von mutmaßlicher Fehlbestimmung sprechen und von einem Datenupload abraten. Stattdessen beharrt er darauf, dass er bei der Bestimmung richtig liege und die Daten der Database zur Verfügung stellen werde.

    Wenn die Database mit solchen Falschdaten unterfüttert wird, und zudem von Leuten, die ihre Daten nicht einmal der kritischen Revision unterziehen, und die erkennbar nicht genügend fachkundliches Wissen haben, um Pilze richtig zu bestimmen, wundert es mich nicht, wenn die KI solch absurde Resultate generiert. Dann ist vielleicht nicht die Software das Problem, sondern es ist die große Menge an Falschdaten, die ungeprüft upgeloaded werden. Damit eine Pilzerkennungs-KI richtig arbeitet, braucht es jedenfalls nicht nur Programmierungskenntnis (an der hapert es meistens nicht), sondern in erster Linie mykologische Fachkenntnis (an der scheint es dagegen schwer zu hapern). Und es braucht Datenqualitätskontrolle.

    FG

    StephanW

    Für meine hier gemachten Aussagen zu Pilzen übernehme ich keinerlei Haftung, es sind insbesondere keine Essfreigaben.

  • Hallo, wie neulich schon hier gesagt: mit der KI-Apps ist es wie oft mit dem Fernsehen-der mehr Gebildete kann schlauer werden, der weniger Gebildete eher nicht. Da ich aus Interesse oft die Apps teste, sehe ich, dass beim selben Pilz aus unterschiedlich fotografiertem Winkel oder anderen Lichtverhältnissen völlig verschiedene Bestimmungen, manchmal sogar aus dem Tierreich, resultieren. Bei vielen Pilzgattungen bzw. Arten ist die KI aber völlig überfordert wie z.B. bei Egerlingen, Täublingen, Korallen, kleinen Weißen, Braunen usw. Je mehr charakteristische Eigenschaften ein Pilz hat und je besser man diese mit einer App im Foto erfasst, desto höher kann die Trefferquote sein, ohne aber Varietäten zu unterscheiden. Dabei sollte man häufig aber schon vorher einigermaßen wissen, was plausibel ist und was nicht. Pilzlaien können das nicht. Dem etwas mehr Fortgeschrittenen kann unter diesen Bedingungen die KI aber Möglichkeiten zeigen, die man einzeln prüfen muss. Dann ist es so ähnlich, als wenn man in einem Pilzbuch blättert, was aber auch nicht immer zum Erolg führen muss. Fazit: Wenig Licht, aber viel Schatten. LG Henry

    ------------------------------------------------------------------------------------------------------------------------------------------

    Meine Fotos sind alle gemeinfrei und dürfen für persönliche Zwecke verwendet werden. Es gelten die üblichen Zitierregeln. Bei Weiterreichung bzw. Verwendung für kommerzielle und nichtkommerzielle Publikationen bedarf es einer persönlichen Abstimmung.

  • Hallo zusammen

    Zuerst mal eins vorweg, ich bin in vielen Bereichen ein grosser Fan von KI und erachte sie als unglaubliche Unterstützung, wenn man sich in einem Bereich schon relativ gut auskennt. Durch KI konnte ich in einigen Bereichen meine Lerngeschwindigkeit deutlich erhöhen, gerade auch bei Fachbegriffen und in der Welt der Mikroskopie, da ich mir das zu einem grossen Teil selbst beibringen musste. Warum schreibe ich, dass man sich im Bereich schon etwas auskennen sollte? Das hat den Grund, dass es bei KI-Systemen hin und wieder zu Halluzinationen kommt und sie etwas erzählt, das nicht stimmt. Diese Halluzinationen sind aber mittlerweile schon deutlich besser geworden.

    Ingo123 Dieser Fall ist typisch für die KI, da sie bei Pilzen oft sehr viel Mühe mit den deutschen Namen hat. Wenn ich ChatGPT zu Pilzthemen etwas frage, benutze ich daher schon seit eh und je immer nur die wissenschaftlichen Namen. Das funktioniert wirklich viel besser. Daher mein Tipp an dich und auch an die anderen, wenn sie z.B. ChatGPT benutzen und eine pilzbezogene Frage stellen: Verwendet immer die wissenschaftlichen Namen der Pilze und entnehmt den Antworten auch immer die wissenschaftlichen Pilznamen, da die deutschen eben oft fehlerhaft sind.

    Die ganze Misere der KI-Aktivitäten im mykologischen Bereich wird momentan in einem Parallelthread deutlich. Da versucht jemand, die Database, auf der das KI-Instrument basiert, mit den Daten eines mutmaßlich falsch bestimmten Pilzes zu füttern. Dieser Mensch zeigt sich komplett davon unbeeindruckt, dass die anderen User von mutmaßlicher Fehlbestimmung sprechen und von einem Datenupload abraten. Stattdessen beharrt er darauf, dass er bei der Bestimmung richtig liege und die Daten der Database zur Verfügung stellen werde.

    Wenn die Database mit solchen Falschdaten unterfüttert wird, und zudem von Leuten, die ihre Daten nicht einmal der kritischen Revision unterziehen, und die erkennbar nicht genügend fachkundliches Wissen haben, um Pilze richtig zu bestimmen, wundert es mich nicht, wenn die KI solch absurde Resultate generiert. Dann ist vielleicht nicht die Software das Problem, sondern es ist die große Menge an Falschdaten, die ungeprüft upgeloaded werden. Damit eine Pilzerkennungs-KI richtig arbeitet, braucht es jedenfalls nicht nur Programmierungskenntnis (an der hapert es meistens nicht), sondern in erster Linie mykologische Fachkenntnis (an der scheint es dagegen schwer zu hapern). Und es braucht Datenqualitätskontrolle.

    Entschuldige, aber hier muss ich kurz einhaken, Stephan. Von welchem KI-Instrument bzw. App reden wir hier eigentlich und warum weisst du, dass diese ungeprüft Bilder von Wikimedia als Datengrundlage verwendet? Warum wird so oft von der KI, die absurde Resultate liefert geredet, obwohl es dutzende verschiedene KI-Systeme gibt? Wie ich schon öfters gesagt habe gibt es schlechte und gute. Ich bin ziemlich sicher, die besten Systeme würden mittlerweile schon viele erfahrene User im Erkennen möglichst vieler verschiedener Arten nur nach Bildern in die Tasche stecken und das wird in Zukunft noch extremer werden auch wenn das vielleicht einigen nicht gefällt. Ich bin mir auch ziemlich sicher, dass es viele Leute gibt, die über KI-Systeme schimpfen, obwohl sie sich noch gar nie intensiver damit beschäftigt haben und vielleicht noch gar nie getestet haben.

    Wo ich dir allerdings recht gebe ist die Wichtigkeit der Datenqualitätskontrolle. Das ist eigentlich das Wichtigste. Die Datengrundlage sollte möglichst viele Bilder möglichst vieler Arten enthalten und diese sollte möglichst wenig Fehler enthalten. Wenn das gegeben ist, dann kann so eine KI in der Bilderkennung wirklich unglaublich gut sein.

    Was natürlich klar ist: Eine KI die nur mit Bildern arbeitet kann auch nur das beurteilen, was sichtbar ist. Wenn sich also eine Art nur mikroskopisch bestimmen lässt, kann sie ohne weitere Infos auch nicht die richtige Art bestimmen.

    Bei vielen Pilzgattungen bzw. Arten ist die KI aber völlig überfordert wie z.B. bei Egerlingen, Täublingen, Korallen, kleinen Weißen, Braunen usw. Je mehr charakteristische Eigenschaften ein Pilz hat und je besser man diese mit einer App im Foto erfasst, desto höher kann die Trefferquote sein, ohne aber Varietäten zu unterscheiden.

    Aber das ist ja eigentlich auch logisch, oder? Selbst der beste Mykologe der Welt kann einen Pilz rein makroskopisch nur bestimmen, wenn dieser eben auch makroskopisch zu bestimmen ist. Wie soll eine KI oder auch eine Person etwas makroskopisch bestimmen, wenn sie z.B. für die richtige Bestimmung wissen muss, ob Schnallen vorhanden sind oder nicht. Egerlinge können teilweise nicht einmal mikroskopisch oder makrochemisch bestimmt werden, sondern nur durch eine Sequenzierung.

    Die Zukunft wird aus meiner Sicht so aussehen: Man gibt ein kleines Pilzstück in ein Gerät. Dieses extrahiert dann die DNA, sequenziert sie und wertet sie aus. Auf dem Display steht dann z.B. Cortinarius traganus - 99.8%. Ich denke mit dieser schnellen Entwicklung wird das gar nicht mehr so lange dauern.

    LG
    Benjamin

    Mit meinen Beiträgen gebe ich lediglich meine persönliche Einschätzung/Meinung ab. Sie sind nur als Vorschläge zu werten und es gibt damit insbesondere keine Verzehrsfreigaben meinerseits. Eine sichere Bestimmung sowie Verzehrsfreigabe kann nur der Pilzkontrolleur bzw. Pilzsachverständige vor Ort geben.

  • Hallo zusammen,
    es freut mich, dass mein Post zu regen und fairen Diskussionen geführt hat. Ich möchte nochmal darauf hinweisen, dass ChatGPT nur den kleinen Beschreibungstext von mir bekommen hat. Daraus hat die KI immerhin sofort die richtige Pilzgattung der Flämmlinge abgeleitet. Das ist schon bemerkenswert gut. Bilder waren hier nicht mit im Spiel.
    Dass ChatGPT dann einen so eklatanten Fehler bei dem deutschen Pilznamen (zimtfarbener Weichporling) macht aber den richtigen wissenschaftlichen Namen (Gymnopilus penetrans) nennt ist erst mal verblüffend und unerklärlich. Da es mich sehr überrascht hat, wollte ich es Euch auch mitteilen. Gerade solche Fehler hätte ich nicht erwartet. Sie wirken so, als ob ein Mensch sich in der Zeile vertan hat.
    Für mich heißt das: Die KI ist schon recht nützlich und gut, macht aber noch Fehler oder macht noch unerklärliche Fehler. Das ist für Anfänger nicht gut und irgendwie auch gefährlich. Darauf wollte ich hinweisen und das steht ja auch im "Kleingedruckten" der KI.

    Noch im Wald habe ich mit der KI "geschimpft":
    "Also das finde ich jetzt etwas gefährlich dass der zimtfarbene weichporling ein lamellenpilz sein soll das bitte dringend überprüfen und nicht noch mal fehlerhaft wiederholen"

    Die Antwort (wobei ich nicht weiß, ob die KI jetzt daraus gelernt hat):


    Du hast völlig recht – das war ein Fehler von mir. Danke fürs klare Feedback.

    Korrektur (wichtig):
    Der „Zimtfarbene Weichporling“ = Hapalopilus rutilans ist tatsächlich ein Porling mit Poren (keine Lamellen) und weißlichem Sporenpulver. Er ist zudem giftig. Ihn als Lamellenpilz zu bezeichnen war falsch. Das wiederhole ich nicht.

    Was zu deiner Beschreibung besser passt (Lamellen + rost-/orangefarbenes Sporenpulver + Holzbewohner):

    • Flämmlinge (Gymnopilus), v. a.
      • Nadelholz-Flämmling (Gymnopilus penetrans) – klein bis mittelgroß, orange-zimtfarbener Hut, Lamellen werden rostorange, oft leicht keuliger Stielgrund, bitter.
      • Pracht-/Großer Flämmling (Gymnopilus junonius) – kräftiger gebaut, oft mit Ringresten, ebenfalls rostorange Sporenpulver, bitter.
    • Schüpplinge (Pholiota) – z. B. Pholiota adiposa/aurivella (orangegelbe Hüte, meist schuppig; rostbraunes Sporenpulver).
    • (Weniger passend:) Ziegelroter Schwefelkopf (Hypholoma sublateritium) – Sporenpulver eher purpur- bis dunkelbraun, nicht rostorange.

    Kurzer Abgleich zur Eingrenzung:

    • Sporenpulver wirklich rost-orange? → spricht stark für Gymnopilus/Pholiota.
    • Hut mit feinen Schüppchen? → eher Pholiota.
    • Bitterer Geschmack (nicht schlucken, nur antippen!) → typisch Gymnopilus.
    • Ring/Velumreste vorhanden? → bei G. junonius häufiger, bei G. penetrans meist fehlend.
    • Substrat: Nadelholz → G. penetrans wahrscheinlicher; Laubholz/Stümpfe → mehrere Optionen.

    Wenn du magst, lade ein Foto hoch (Hutoberseite, Lamellen, Stielbasis, Wuchsplatz). Dann bestimme ich ihn sauber – und danke nochmal fürs Hinweisen!


    Ihr könnt es ja mit dem original Fragetext überprüfen:
    Ich suche einen Lamellenpilz, der zahlreich auf Bäumen wächst und diese zersetzt, er ist ein ungefähr 5 cm hoher Pilz mit orangenem Hut und auch orange, rostfarbenem Sporenpulver. Der Stiel hat noch eine kleine Besonderheit, unten ist der leicht keulig verdickt.

    Schönen Gruß
    Ingo

  • allo zusammen,.

    das ist ein Bezahlartikel, auf den du verlinkt hast. Da du es nicht dazugeschrieben hast, mache ich das.

    Hallo Stephan,


    danke dir fürs Anmerken, ich vergesse gerne mal, dass nicht jeder die Artikel meiner abonnierten Medien lesen kann. Daher hier eine Version ohne Zahlschranke zum peinlichen Lapsus von OpenAI.

    Und hier noch das Ergebnis einer aktuellen Studie der Europäischen Rundfunkunion, nach der KI-Systeme gleich welchen Anbieters bei den Fragen zu aktuellen Themen in 45 % der Fälle signifikant fehlerhafte Antworten liefern. Nimmt man noch mängelbehaftete Antworten hinzu, sind 81 % der Antworten signifikant fehlerhaft oder nicht mängelfrei.

    Grundsätzlich muss man bei KI-Systemen unterscheiden, für welchen Zweck sie eingesetzt werden und welche Trainingsmodelle dahinterstecken. In Bereichen wie z. B. Mustererkennung, Expertensystemen oder in eng definierten medizinischen Diagnosefeldern sind KI-Systeme schon sehr gut und erzielen teilweise sogar deutlich bessere und schnellere Ergebnisse als natürliche Intelligenzen.

    Sobald es aber um generative Modelle geht, werden die Grenzen und Gefahren der KI sehr deutlich. Hier ist es in meinen Augen besonders kritisch, dass von KI-Systemen generierte Ausgaben nicht mehr ohne weiteres von menschlichen Konsumenten als falsch oder fehlerhaft erkannt werden können, was heute schon zu einer exponentiell anwachsenden Flut von Falschinformationen im Netz führt und sich nach Ansicht vieler Experten zu einem ernsthaften Problem für demokratische Gesellschaften entwickelt.


    Viele Grüße,

    Panikpilz

  • Chatbots Achillesferse sind regionale Anfragen.


    Da werden Pilze (oder was auch immer) von verschiedenen Kontinenten munter gemixt.



    Was KI angeht, hab recht gute Bildbestimmung von der App “Picture mushroom” erhalten.

  • Hallo Panikpilz

    Sobald es aber um generative Modelle geht, werden die Grenzen und Gefahren der KI sehr deutlich.

    Aber eben auch deren Möglichkeiten. Erst durch generative Modelle nahmen die Leute KI überhaupt richtig wahr. Es sind die Modelle, mit denen man sich unterhalten kann, die etwas erklären können, die Texte in erstaunlicher Qualität übersetzen können, die dir ein Bild, Video oder Logo erstellen können, die dir auf Wunsch innert kürzester Zeit ein massgeschneidertes Skript zur Automatisierung von Aufgaben oder eine komplizierte Excelformel schreiben können und vieles mehr. Ein grosser Teil Programmcode, auch bei den grossen Firmen, ist mittlerweile KI-generiert.

    Eine diskriminative KI erkennt grob gesagt nur Muster und berechnet Wahrscheinlichkeiten, um Daten richtig einzuordnen, während eine generative KI eben Inhalte generieren kann. Das ist ja genau das, was die Leute an einem generativen Modell fasziniert. Natürlich birgt das auch Gefahren, da die KI durch Halluzinationen auch mal etwas behaupten kann, was nicht stimmt und daher habe ich oben auch geschrieben, dass man sich deshalb idealerweise in einem Gebiet schon etwas auskennen sollte oder sonst zumindest immer Quellennachweise von der KI verlangen soll und diese überprüfen. So mache ich es, wenn ich mich in ein neues Thema einarbeiten möchte und überprüfen möchte, ob die Infos, die mir die KI liefert auch richtig sind. Gefährlicher sind aber vermutlich ohnehin KI-generierte Fotos und Videos, die sich schon jetzt kaum noch von der Realität unterscheiden lassen können. Es kann dann mit der Zeit fast unmöglich werden zu erkennen, was real und was generiert ist (z.B. Fake-Videos).

    Ansonsten denke ich macht es hier keinen grossen Sinn, sich weiter über KI zu unterhalten. Wenn man KI verteufelt wird meistens gejubelt, wenn man deren Möglichkeiten erläutert, sehen diese viele anscheinend nicht, oder sie möchten sie nicht sehen. Ich denke, dass viele die schlecht über KI reden, selbst noch gar nie eine genutzt haben und das ist aus meiner Sicht dann einfach nicht fair. Natürlich sehe ich auch grosse Gefahren, die man sehr ernst nehmen muss, aber eben auch sehr grosse Möglichkeiten.

    Ich finde das Zitat von Stephan Hawking gut und treffend:
    "Success in creating AI could be the biggest event in the history of our civilisation. But it could also be the last – unless we learn how to avoid the risks."
    Auf Deutsch etwa:
    "Die Erschaffung einer echten künstlichen Intelligenz könnte das grösste Ereignis in der Geschichte der Menschheit werden –
    oder unser letztes, wenn wir nicht lernen, die Risiken zu beherrschen."

    LG
    Benjamin

    Mit meinen Beiträgen gebe ich lediglich meine persönliche Einschätzung/Meinung ab. Sie sind nur als Vorschläge zu werten und es gibt damit insbesondere keine Verzehrsfreigaben meinerseits. Eine sichere Bestimmung sowie Verzehrsfreigabe kann nur der Pilzkontrolleur bzw. Pilzsachverständige vor Ort geben.

  • Leider hat es unsere Gesellschaft momentan nicht so mit Risikobeherrschung, und warum sollte das in Zukunft besser werden? Wenn die Büchse der Pandora erstmal offen ist, ist es entscheidend, ob es noch Leute gibt, die Fehlentwicklungen zurückdrehen können. Ich habe da meine Zweifel.

    Was hat man damals große Erwartungen und Hoffnungen in die Sozialen Medien gesetzt, als sie implementiert wurden? Mittlerweile haben sie sich so entwickelt, dass sie eigentlich verboten gehörten, wenn unsere Gesellschaft sozialverträglich fortexistieren will. Wie sich zeigt, denkt aber niemand daran, sie zu verbieten, und so geht dann alles munter weiter seinen Gang und mit der Menschheit geht es immer weiter bergab (man hat das Gefühl, je mehr Aufwand reingesteckt wird, damit für uns alles immer besser und besser wird, wird es tatsächlich für uns immer schlimmer).

    Und zu den Fähigkeiten von KI: es ist wirklich toll, was KI schon alles kann. Nur Pilzbestimmung gehört nachweislich nicht dazu. Es ist auch nicht so, dass nur jemand, der mitten in der KI-Entwicklung oder Nutzung steckt, mitreden kann. Man muss auch kein Ei legen können, um sich eins zu braten.

    FG

    StephanW

    Für meine hier gemachten Aussagen zu Pilzen übernehme ich keinerlei Haftung, es sind insbesondere keine Essfreigaben.

  • StephanW

    Hallo Stephan

    Ich widerspreche dir ungern, aber ich muss fragen, wen meinst Du mit unsere Gesellschaft?

    Und will diese Gesellschaft sozialverträglich sein? Bzw kann/darf sie das?

    Und wo siehst Du den Aufwand, alles besser für uns zu machen?

    Im Fall der sozialen Medien ist doch niemand da, der das kontrollieren könnte und entsprechend einzugreifen, zumindest bei uns in Deutschland vielleicht auch Mitteleuropa. Etwas platt ausgedrückt, es läuft doch immer nach dem Schema "schneller, größer, weiter" und eben nicht mit dem sozialverträglichen Filter. In dieser globalisierten Gesellschaft , in der wir uns bewegen, gelten eben andere Regeln, leider.

    Zu deinem Vergleich mit dem Ei , der mir gut gefällt, fällt mir deswegen nur ein, daß man(cher) erst mal wissen muss, was ein Ei ist.

    Aber eine Idee, wie es weitergehen sollte, habe ich leider auch nicht.

    Gruß Bernhard

  • Hallo Stephan

    Ich habe da eine ganz andere, liberale Sicht auf Dinge.

    Was hat man damals große Erwartungen und Hoffnungen in die Sozialen Medien gesetzt, als sie implementiert wurden? Mittlerweile haben sie sich so entwickelt, dass sie eigentlich verboten gehörten, wenn unsere Gesellschaft sozialverträglich fortexistieren will. Wie sich zeigt, denkt aber niemand daran, sie zu verbieten, und so geht dann alles munter weiter seinen Gang und mit der Menschheit geht es immer weiter bergab (man hat das Gefühl, je mehr Aufwand reingesteckt wird, damit für uns alles immer besser und besser wird, wird es tatsächlich für uns immer schlimmer).

    Sicher ist da nicht alles Gold was glänzt und man sollte Ihre Funktionsweise und den Umgang damit verstehen. Aber warum sollten sie deshalb gleich verboten werden? Ich bei ein grosser Gegner von Verboten, weil sie in den meisten Fällen kontraproduktiv sind und die Freiheit einschränken. Und nur weil einige mit sozialen Medien nicht zurecht kommen, soll man sie gleich für alle verbieten? Hätte man dann den Hammer damals, nachdem er erfunden wurde, auch verbieten sollen, weil sich einige damit auf die Finger gehauen und sich verletzt haben?

    Sollen wir wirklich von unserer freiheitlichen Gesellschaft (die jetzt leider schon immer mehr eingeschränkt wird) abkommen und einen ähnlichen Weg wie China mit vielen Verboten und extrem grosser Kontrolle gehen? Zudem sind Verbote ohnehin dazu da umgangen zu werden, gerade wenn viele diese nicht akzeptieren. Obwohl in China sehr viele soziale Medien (ausser ihre eigenen), Google und viele anderen Websites gesperrt sind, wissen viele Jugendlichen dort schon lange, wie sie diese Sperren umgehen können.

    Aus meiner Sicht ist das grösste Problem die Bildung. Und das betrifft soziale Medien gleichermassen wie die Nutzung von KI. Die Kinder müssten in der Schule dringend besser im Umgang damit geschult werden. Es müssen Ihnen die Gefahren, aber auch die Möglichkeit aufgezeigt werden. Ein Problem ist dort aber vermutlich, dass sich viele Lehrer damit einfach selbst zu wenig auskennen. Wenn ein Lehrer selbst noch nie soziale Medien oder eine KI genutzt hat, wie soll er dann seine Schüler im Umgang damit erfolgreich unterrichten? Das funktioniert eben leider nicht und da sehe ich persönlich ein grosses Problem. Verbote sind aus meiner Sicht absolut keine Lösung und bringen nichts, ausser dass die Gesellschaft immer mehr in ihren Rechten und Möglichkeiten eingeschränkt wird.

    Und zu den Fähigkeiten von KI: es ist wirklich toll, was KI schon alles kann. Nur Pilzbestimmung gehört nachweislich nicht dazu.


    Da stimme ich eben gerade überhaupt nicht zu und das beste Beispiel dafür hat Panikpilz weiter oben in folgendem Abschnitt genannt:

    Grundsätzlich muss man bei KI-Systemen unterscheiden, für welchen Zweck sie eingesetzt werden und welche Trainingsmodelle dahinterstecken. In Bereichen wie z. B. Mustererkennung, Expertensystemen oder in eng definierten medizinischen Diagnosefeldern sind KI-Systeme schon sehr gut und erzielen teilweise sogar deutlich bessere und schnellere Ergebnisse als natürliche Intelligenzen.


    Eine KI, die ausschliesslich makroskopisch Pilze erkennen muss, benötigt eigentlich nur eine ausgefeilte Mustererkennung und berechnet dann die Wahrscheinlichkeiten. Dafür reicht eine diskriminative KI mit einer möglichst fehlerfreien und grossen Datenbasis mit möglichst vielen Arten völlig aus. Auch ein erfahrener Pilzkenner arbeitet bei der makroskopischen Bestimmung im Prinzip gleich. Er erkennt Muster und benennt dann die wahrscheinlichste Art. Wenn er vor Ort ist, hat er natürlich den Vorteil, dass er noch zusätzliche Informationen, wie z.B. Geruch oder Haptik zur Verfügung hat. Die KI hat aber je nachdem eine riesige Menge an Bildern einer Art in allen möglichen Zuständen von jung bis alt und von allen möglichen Blickwinkeln in ihrer Datenbank. Da Speicher heute so günstig ist, kann man ihr fast unbegrenzt weitere Arten und Fotos hinzufügen. Ein gutes Beispiel liefert z.B. die Tumorerkennung: Dort ist die KI bei der reinen visuellen Mustererkennung (also einen Tumor auf einem Bild) erkennen in den meisten Fällen deutlich schneller und zuverlässiger als der Mensch. Warum sollte das bei der makroskopischen Pilzerkennung, die ebenfalls im Kern auf Mustererkennung beruht, anders sein?

    Einige dieser Erkennungs-Apps haben die letzten Jahre wirklich grosse Fortschritte gemacht. Eine, die ich vor einer Weile mal getestet habe und die mich wirklich erstaunt hat, war die bereits genannte App Picture mushroom. Im Idealfall macht man dort drei Fotos (Seite, oben, unten) und die App gibt die wahrscheinlichsten Arten aus. Ich war teilweise wirklich überrascht, was da alles erkannt wurde.

    Es ist auch nicht so, dass nur jemand, der mitten in der KI-Entwicklung oder Nutzung steckt, mitreden kann. Man muss auch kein Ei legen können, um sich eins zu braten.


    Dein Satz widerspricht sich aber aus meiner Sicht. Ich stimme zwar zu, dass man kein KI-Entwickler sein muss, um über KI mitreden zu können, was ja auch unrealistisch wäre. Aber ohne eigene Erfahrung mit KI kann man sich schlicht und ergreifend kein fundiertes Urteil dazu bilden. Das wäre wie wenn ich ein Hotel bewerten würde, in dem ich noch gar nie übernachtet habe.
    Dein Beispiel mit dem Ei stimmt für mich übrigens nicht: Denn wenn du ein Ei brätst, dann nutzt du es ja bereits. Man muss also kein KI-Entwickler sein (das Ei legen können), aber man muss die KI genutzt haben (das Ei braten), um darüber richtig urteilen zu können.

    LG
    Benjamin

    Mit meinen Beiträgen gebe ich lediglich meine persönliche Einschätzung/Meinung ab. Sie sind nur als Vorschläge zu werten und es gibt damit insbesondere keine Verzehrsfreigaben meinerseits. Eine sichere Bestimmung sowie Verzehrsfreigabe kann nur der Pilzkontrolleur bzw. Pilzsachverständige vor Ort geben.

  • Hallo zusammen,

    hier ein Bericht über eine europaweite Studie zu falschen KI-Anworten:

    Studie: KI-Chatbots machen bei 40 Prozent der Antworten Fehler
    Eine neue Studie der Europäischen Rundfunkunion zeigt alarmierende Fehlerquoten bei populären KI-Chatbots. Die Systeme erfinden regelmäßig Informationen und…
    www.tagesschau.de

    Schöne Grüsse,

  • Hallo zusammen,

    heute war in unserer Zeitung auch ein Bericht über die aktuelle Leistungsfähigkeit von ChatGPT. Darin hieß es, dass die Antworten zu 81 % fehlerhaft seien, dass aber die wenigsten Nutzer dies auch erkennen könnten, da die Fehler mit einer gewissen Überzeugungskraft präsentiert und unkommentiert im Raum stehenbleiben würden. Insgesamt sieht der Zeitungsautor die Verwischung von Realität und falscher Tatsachendarstellung, somit ein Aufweichen dessen, was objektiv als Realität und was als Fiktion gilt, und somit eine Gefährdung unserer Demokratie, da diejenigen, die unsere Regierung wählen, immer weniger Realitätssinn hätten und Falschinformationen hinterherlaufen würden. Zum Beispiel hätten kürzlich AfD-Parlamentsabgeordnete mithilfe von KI Falsch-Videos von Politikerkollegen ins Bild gerückt und dies als zulässige politische Meinungsäußerung verteidigt. Das Wahlvolk hätte zunächst diese Desinformation geglaubt.

    FG

    StephanW

    Für meine hier gemachten Aussagen zu Pilzen übernehme ich keinerlei Haftung, es sind insbesondere keine Essfreigaben.

  • Hallo zusammen

    hier ein Bericht über eine europaweite Studie zu falschen KI-Anworten:

    Also den Tagesschau-Artikel habe ich mal kurz gelesen und konnte irgendwie nicht glauben, dass ChatGPT sagt. dass Papst Franziskus noch lebt, wie es im Artikel behauptet wird, da mittlerweile bei solchen Ereignissen (Modelle mit älteren Daten eigentlich zusätzlich aktuelle Online-Daten miteinbezogen werden sollten). Also habe ich getestet und die gleiche Frage gestellt:

    Da der verlinkte Artikel erst vor wenigen Tagen erschienen ist (27.10.25), hätte ich von der Tagesschau schon erwartet, dass sie das selbst nochmal kurz testen (eine Arbeit von 1 Minute), bevor sie es so in den Artikel schreiben.

    Schliesslich sollte bei aktuellen Ereignissen mittlerweile normalerweise eine Onlinerecherche betrieben werden, wie man auch hier sieht:


    heute war in unserer Zeitung auch ein Bericht über die aktuelle Leistungsfähigkeit von ChatGPT. Darin hieß es, dass die Antworten zu 81 % fehlerhaft seien, dass aber die wenigsten Nutzer dies auch erkennen könnten, da die Fehler mit einer gewissen Überzeugungskraft präsentiert und unkommentiert im Raum stehenbleiben würden.

    Wurde diese Angabe denn auch mit einer Quelle oder mit einer genauen Beschreibung des Testablaufs belegt? Von einer seriösen Zeitung würde ich das nämlich erwarten, ansonsten ist das für mich nämlich erst mal eine leere Behauptung, die in den Raum gestellt wird. Also eigentlich das, was man der KI gleichzeitig vorwirft. :) Wenn es ein fairer und ausgewogener Test war, glaube ich die Zahl von 81% einfach nicht und ich möchte den Testablauf sehen und nachvollziehen können, denn Papier ist eben auch oft geduldig.

    Zum Beispiel hätten kürzlich AfD-Parlamentsabgeordnete mithilfe von KI Falsch-Videos von Politikerkollegen ins Bild gerückt und dies als zulässige politische Meinungsäußerung verteidigt. Das Wahlvolk hätte zunächst diese Desinformation geglaubt.

    Die Gefahr, dass KI auch mal missbräuchlich eingesetzt wird, besteht allgemein. Zur AfD: Anscheinend sind die Leute mit der gemachten Politik im Land schon länger nicht mehr zufrieden und daher sind wohl auch die anderen Parteien (vermutlich durch schlechte Politik) schuld, dass die AfD immer mehr Zulauf erhält. Deutsche Gäste beklagen bei uns jedenfalls seit einigen Jahren deutlich häufiger Ihre schlechte Regierung und es wurden die letzten Jahre immer mehr, die sagten, dass es ihnen reicht und sie beim nächsten Mal die AfD wählen würden. Daher überrascht mich diese Entwicklung auch ganz und gar nicht. Mit KI hat das Ganze aber wirklich absolut gar nichts zu tun. Ich gehe aber auf solche Diskussionen von Gästen nie ein, denn mein Grossvater hatte früher schon gesagt es gibt zwei Sachen, über die man mit seinen Gästen nicht diskutiert, da es so häufig zu Streitereien kommt und das sind Politik und Religion. Ich finde er hatte absolut recht, daher finde ich es falsch, dass du hier, wie auch im anderen Forum versuchst eine Diskussion zu einer politisch gefärbten Diskussion werden zu lassen. Soweit ich weiss hat die AfD laut Umfragen mittlerweile einen Anteil von etwa 25% in Deutschland. Wenn jeder 4. also vor hat die AfD zu wählen, heisst das für mich, dass es hier und auch im anderen Forum mit Sicherheit User gibt, welche auch AfD-Wähler sind und daher kann so ein Thread schnell in einer Streitigkeit ausarten, was ich sehr schade finden würde und in einem Pilzforum aus meiner Sicht nichts verloren hat. Zudem hat das Ganze eigentlich auch nichts mit dem eigentlichen Thema KI zu tun.

    Ich war mal in einem anderen Fach-Forum aktiv. Dort fing ein Teil leider auch mit der Zeit an über Politik zu diskutieren und ihr könnt euch gar nicht vorstellen, zu welchen Streitereien dies geführt hat (auch zwischen Usern, die vorher super miteinander klar kamen).

    Natürlich könnt ihr es machen, wie ihr wollt, persönlich werde ich mich aber bei politischen Diskussionen lieber heraushalten, da ich weiss, wo das enden kann.

    Hier noch ein kurzes Beispiel, was die KI eben auch leisten kann und wo man extrem viel Arbeit einsparen kann. Obwohl die Erklärung von mir nicht gerade so einfach zu verstehen ist, konnte mir die KI ein vollständig funktionierendes Python-Skript schreiben, das mir viel Arbeit erspart. Hier ist nur meine Aufgabenstellung, das Skript wäre weiter unten, aber ich denke das muss ich nicht auch noch hinzufügen, ausser jemand möchte es noch sehen:


    Übrigens lasst doch mal eine Pilzbeschreibung aus einem Fachbuch in Fremdsprache (Französisch, Italienisch, Spanisch, Englisch) auf Deutsch übersetzen. Ich war erstaunt über die detaillierten und guten Übersetzungen. Da steht DeepL im Gegensatz dazu wirklich schlecht da.

    Natürlich soll man immer kritisch bleiben und im Zweifel Quellen von ChatGPT verlangen und diese anschauen. Aber KI erspart mir in vielen Bereichen enorm viel Arbeit und ich denke es geht auch anderen so. Zudem investieren die grössten Firmen der Welt Unsummen in die Erweiterung von KI und ich glaube nicht, dass die alle blöd sind. Der Schaufelverkäufer von KI Nvidia ist mittlerweile übrigens das wertvollste Unternehmen der Welt und hat mittlerweile einen Börsenwert von über 5 Billionen Dollar ($ 5'000'000'000'000).

    LG
    Benjamin

    Mit meinen Beiträgen gebe ich lediglich meine persönliche Einschätzung/Meinung ab. Sie sind nur als Vorschläge zu werten und es gibt damit insbesondere keine Verzehrsfreigaben meinerseits. Eine sichere Bestimmung sowie Verzehrsfreigabe kann nur der Pilzkontrolleur bzw. Pilzsachverständige vor Ort geben.

    3 Mal editiert, zuletzt von ibex (30. Oktober 2025 um 17:15)

  • Schöne Einstufung der KI und gut gemeinte Mahnung hier Politik raus zu halten, Benjamin. Ich wollte fast auf StephanW´s Post antworten aber wie Du schreibst, gibt es Themen, die führen nur in den Abgrund. In Argentinischen Langstreckenbussen gilt auch das ausdrückliche Verbot über Politik und Religion zu diskutieren, die wissen auch warum. (ich könnte noch vegane Ernährung ergänzen)
    Das einzige was ich schreiben wollte: Pilz-Politik ist toxisch und das kommt dann nicht nur von den Pilzen.
    Gruß aus dem Velum universalis.


    Ingo

  • Hier noch ein kurzes Beispiel, was die KI eben auch leisten kann und wo man extrem viel Arbeit einsparen kann. Obwohl die Erklärung von mir nicht gerade so einfach zu verstehen ist, konnte mir die KI ein vollständig funktionierendes Python-Skript schreiben, das mir viel Arbeit erspart. Hier ist nur meine Aufgabenstellung, das Skript wäre weiter unten, aber ich denke das muss ich nicht auch noch hinzufügen, ausser jemand möchte es noch sehen:

    LG
    Benjamin

    Also mich würde das Script echt interessieren.
    Packst es am besten in einen Spoiler und dort in einen Code-Block, dann wird es nicht verändert beim posten.

  • Hallo zusammen

    Also mich würde das Script echt interessieren.
    Packst es am besten in einen Spoiler und dort in einen Code-Block, dann wird es nicht verändert beim posten.

    Gerne, hier ist es. Spoiler scheint gar nicht nötig zu sein, da es im Code-Block automatisch verkürzt bzw. ausklappbar dargestellt wird:

    LG
    Benjamin

    Mit meinen Beiträgen gebe ich lediglich meine persönliche Einschätzung/Meinung ab. Sie sind nur als Vorschläge zu werten und es gibt damit insbesondere keine Verzehrsfreigaben meinerseits. Eine sichere Bestimmung sowie Verzehrsfreigabe kann nur der Pilzkontrolleur bzw. Pilzsachverständige vor Ort geben.

  • Vielen Dank Benjamin, das ist ja echt eine tolle Sache.

  • Hallo zusammen

    heute war in unserer Zeitung auch ein Bericht über die aktuelle Leistungsfähigkeit von ChatGPT. Darin hieß es, dass die Antworten zu 81 % fehlerhaft seien, dass aber die wenigsten Nutzer dies auch erkennen könnten, da die Fehler mit einer gewissen Überzeugungskraft präsentiert und unkommentiert im Raum stehenbleiben würden.

    Wurde diese Angabe denn auch mit einer Quelle oder mit einer genauen Beschreibung des Testablaufs belegt? Von einer seriösen Zeitung würde ich das nämlich erwarten, ansonsten ist das für mich nämlich erst mal eine leere Behauptung, die in den Raum gestellt wird. Also eigentlich das, was man der KI gleichzeitig vorwirft. :) Wenn es ein fairer und ausgewogener Test war, glaube ich die Zahl von 81% einfach nicht und ich möchte den Testablauf sehen und nachvollziehen können, denn Papier ist eben auch oft geduldig.

    Hallo Benjamin,

    als Quelle dieser Zahlen hatte ich in meinem Beitrag weiter oben schon auf die Studie der Europäischen Rundfunkunion, an der aus Deutschland ARD und ZDF mitwirkten, sowie einen Beitrag dazu auf dem Computer-Fachmagazin ct verwiesen. Im Appendix der Studie wird übrigens die Methodologie der Studie ausführlich beschrieben.

    Für mich ist neben der hohen Fehlerquote der KI-Antworten besonders bedenklich, dass die untersuchten KI-Systeme (ChatGPT, Copilot, Gemini und Perplexity) zu unbelegten Behauptungen tendieren, da sie bei der Quellennachverfolgung Fehler begehen, veraltete Informationen verwenden und sogar Links auf ihre Behauptungen stützende Quellen schlichtweg erfinden.

    Das sind zusammen mit der stetig wachsenden Naivität, Sorglosigkeit und Faulheit der Nutzer (mehr als 1/3 aller erwachsenen Briten vertrauen blindlings einer KI-Zusammenfassung) nicht nur in meinen Augen mehr als besorgniserregende Entwicklungen.


    Hier noch die jüngste Anekdote mit dem auf OpenAI basierenden KI-System meines Firmenwagens, die sich auf der Fahrt durch Unterfranken an der Grenze zu Oberfranken zutrug. Ich wollte meinen etwas älteren Beifahrern die Fähigkeiten der KI vorführen, dabei kam es zu folgender Unterhaltung:

    Ich: "In welchem Regierungsbezirk befinden wir uns gerade?"

    KI: "Wir befinden uns im Regierungsbezirk Oberbayern. Der Regierungsbezirk Oberbayern ist einer von sieben Regierungsbezirken des Freistaats Bayern ..." - es folgten noch weitere Angaben über den Regierungsbezirk Oberbayern, die mit der Frage nichts zu tun hatten.

    Ich: "Bist du dir sicher, dass wir uns im Regierungsbezirk Oberbayern befinden?"

    KI (nach etwas größerer Denkpause): "Ja, ich bin mir sicher."


    Viele Grüße,
    Panikpilz

    Einmal editiert, zuletzt von Panikpilz (31. Oktober 2025 um 13:44)

  • Hallo

    Mein Beitrag ergibt jetzt nicht mehr so viel Sinn, da ich mich bei den Modellen vertan habe und fälschlicherweise davon ausgegangen bin, dass bei GPT-4o noch keine Online-Recherche möglich war, wie es bei GPT-4 der Fall war. Von mir aus kann der Beitrag daher gelöscht werden oder auch stehen gelassen werden, das kann ja Frank Hiatamandlentscheiden. Der Transparenz halber habe ich die falschen Stellen nur durchgestrichen. Ich bitte um Entschuldigung.

    Edit: Ich habe gerade gesehen, dass ich in meinem Beitrag auch etwas durcheinander gebracht habe, weil du ein Zitat, das von StephanW stammt, als jenes von Albus in deinem Beitrag darstellst. Daher habe ich meinen Beitrag jetzt nochmal angepasst.

    als Quelle dieser Zahlen hatte ich in meinem Beitrag weiter oben schon auf die Studie der Europäischen Rundfunkunion, an der aus Deutschland ARD und ZDF mitwirkten, sowie einen Beitrag dazu auf dem Computer-Fachmagazin ct verwiesen. Im Appendix der Studie wird übrigens die Methodologie der Studie ausführlich beschrieben.

    Für mich ist neben der hohen Fehlerquote der KI-Antworten besonders bedenklich, dass die untersuchten KI-Systeme (ChatGPT, Copilot, Gemini und Perplexity) zu unbelegten Behauptungen tendieren, da sie bei der Quellennachverfolgung Fehler begehen, veraltete Informationen verwenden und sogar Links auf ihre Behauptungen stützende Quellen schlichtweg erfinden.

    Wie gesagt habe ich mich zu dieser Studie nicht im Speziellen geäussert, da ich sie gar nicht genau angeschaut habe. Wie ich oben geschrieben habe, habe ich nur kurz den Tagesschau-Artikel gelesen und kurz den Test mit dem Papst und einem aktuellen Ereignis gemacht.

    Ich habe aber gesehen, dass sich die 81% anscheinend auf diese Studie beziehen und daher habe ich sie mir jetzt doch kurz angesehen. Mir ist aufgefallen, dass die an die KIs gestellten Fragen vermutlich absichtlich ziemlich viele aktuelle Themen beinhalteten. Zudem wurde in der Studie die Free/consumer Version von GPT-4o verwendet, die in der verwendeten Free/consumer Version mit den Standardeinstellungen noch keine Online-Recherche zuliess und mit einem Wissensstand vom Juni 2024 gearbeitet hat. Wie soll dieses Modell dann auch aktuelle Fragen der Studie vom Mai/Juni 2025 richtig beantworten können? So war eigentlich von Anfang an klar, dass die KI bei aktuellen Fragen Fehler machen würde. Die Studie ist zwar noch nicht so lange erschienen, aber schon wieder veraltet und es müsste eine mit GPT-5 gemacht werden, das bei aktuellen Themen kurz eine Internet-Recherche macht und auch eine deutlich geringere Halluzinationsrate aufweist.

    Aus den genannten Gründen ist die Studie für mich leider nicht viel Wert. Wenn ich eine Studie mache und weiss, dass unter anderem ChatGPT mit dem Modell GPT-4o, welches ich teste, Wissen bis zum Juni 2024 zur Verfügung hat und durch die Free/consumer Verison keine Internet-Recherche der KI möglich ist, ist ein schlechtes Abschneiden ja wohl vorprogrammiert und man hätte sich den Test sparen können (zumindest mit Fragen zu aktuellen Ereignissen, die nach Juni 2024 stattfanden), ausser man wollte die KI bewusst schlecht aussehen lassen. Das ist ja dann wie wenn die KI versuchen müsste, die Zukunft vorherzusagen. Spannend wäre daher nur ein aktueller Test mit ChatGPT Modell GPT-5 mit instant Online-Recherche.

    Dass GPT-4o in der Free/consumer Version mit den Standardeinstellungen, wie es in der Studie verwendet wurde, nur Wissen bis Juni 2024 enthält, hätte man den Release-Notes von OpenAI einfach entnehmen können (https://help.openai.com/en/articles/96…l-release-notes ).

    Edit: Das Grundwissen ist zwar nur bis Juni 2024, es war aber mit GPT-4o (im Gegensatz zu GPT-4) bereits Online-Recherche möglich (auch in der Free/consumer Version), was ich fälschlicherweise nicht wusste. Ich bitte um Entschuldigung. Hier steht es: https://help.openai.com/en/articles/92…t-free-tier-faq

    LG
    Benjamin

    Mit meinen Beiträgen gebe ich lediglich meine persönliche Einschätzung/Meinung ab. Sie sind nur als Vorschläge zu werten und es gibt damit insbesondere keine Verzehrsfreigaben meinerseits. Eine sichere Bestimmung sowie Verzehrsfreigabe kann nur der Pilzkontrolleur bzw. Pilzsachverständige vor Ort geben.

    7 Mal editiert, zuletzt von ibex (1. November 2025 um 23:02)

  • Hallo zusammen

    Ich habe mir das getestete Modell von ChatGPT (GPT-4o) jetzt nochmal genau angeschaut und habe wohl leider einen Fehler gemacht. GPT-4 konnte in der Free/consumer Version keine Online-Recherche betreiben, aber es wurde ja GPT-4o getestet und dieses Modell konnte wohl schon Online-Recherche. In der Studie steht auch geschrieben, dass KIs benutzt wurden, die Online-Recherche bieten.

    Ich möchte mich für meinen Fehler entschuldigen (besonders auch bei CH-Andy und Rooki ) und werde meinen Beitrag oben noch anpassen. Ich habe mir die Studie jetzt nicht im Detail angeschaut, aber ein paar Sachen kurz getestet und soweit ich gesehen habe, hat GPT-5 schon wieder grosse Fortschritte (gerade auch beim richtigen Nutzen der Online-Recherche) gemacht. In der nächsten Studie wird man sehen, ob sich diese auch im Resultat der Studie widerspiegelt.

    Mir persönlich nimmt ChatGPT jedenfalls viel Arbeit ab und es macht meine Arbeit viel effizienter, aber wie schon gesagt, bin ich auch der Meinung, dass man gerade bei unbekannten Themen oder auch sonst im Zweifel die Quellen anfordern sollte und diese prüfen sollte, da die ChatGPT natürlich noch lange nicht perfekt ist.

    LG
    Benjamin

    Mit meinen Beiträgen gebe ich lediglich meine persönliche Einschätzung/Meinung ab. Sie sind nur als Vorschläge zu werten und es gibt damit insbesondere keine Verzehrsfreigaben meinerseits. Eine sichere Bestimmung sowie Verzehrsfreigabe kann nur der Pilzkontrolleur bzw. Pilzsachverständige vor Ort geben.

    Einmal editiert, zuletzt von ibex (1. November 2025 um 23:06)

  • ibex Tolle Beiträge und auch super wie Du mit dem ganzen umgegangen bist.

    Ich würde es gerne so stehen lassen, da der durchgestrichene Text aussagekräftig genug erscheint und die Zusammenhänge damit gewahrt bleiben.

Jetzt mitmachen!

Du hast noch kein Benutzerkonto auf unserer Seite? Registriere dich kostenlos und nimm an unserer Community teil!