Wie wir unsere Community mit Plagiaten beeindrucken

(Die maschinelle Zusammenfassung des Artikels finden sie ganz unten. Sie können sich diesen Artikel auch vorlesen lassen)

In meinem vorhergehenden Artikel “expanding the horizon of networking” habe ich zu Beginn des Artikels einen kurzen Exkurs zum Thema “Künstliche Intelligenz” und generativer Chat-Systeme diesbezüglich gemacht. Dabei habe ich erwähnt, dass diese zunehmend zum Trigger von diversen Werte-Erosionen in der Gesellschaft werden. Sie sind gegenwärtig in vielen Teilen des Lebens sehr beliebt und erleichtern je nach Aufgabe bestimmte Tasks und Tätigkeiten enorm. Ihre zunehmende Inanspruchnahme für die schnelle und automatisierte Textfassung kann aber auch im ungünstigen Fall fatale Folgen in der Reputation haben. Zudem gibt es umgekehrt bereits einige Plattformen zur Automatisierung von LinkedIn Workflows. Eines von beliebten AI-Plattformen für “automatisiertes LinkedIn” ist beispielsweise EngageAI.

Es begann im Grunde bereits in den späten 40er, dass die Menschheit irgendwann in der Lage sein würde durch eine KI schwere Aufgaben und Arbeiten im Leben einfacher zu gestalten. In jeder Lebenslage und für jede Situation würden irgendwann KI Systeme und Roboter dominieren und unsere Aufgaben für uns erledigen, ja gar für uns arbeiten gehen.

Zu diesem Thema wurden etliche wissenschaftliche, mathematische Bücher verfasst, aber auch dystopische, fantasievolle, futuristische Bücher geschrieben und Filme gedreht. Wir alle kennen das Buch “1984” von George Orwell oder die Trilogie “Matrix” (inzwischen 4 Teile) von den “The Wachowski Brothers”.

Einige dieser Filme sind z.B. (Vorschlag von ChatGPT-4o):

  • Blade Runner (1982)
  • Ex Machina (2014)
  • The Matrix (1999)
  • Her (2013)
  • A.I. Artificial Intelligence (2001)
  • I, Robot (2004)
  • Transcendence (2014)
  • 2001: A Space Odyssey (1968)
  • Terminator 2: Judgment Day (1991)
  • Ghost in the Shell (1995)
  • etc.
Heute gibt es unzählige Bücher und sehr viele Filme über KI – Screenshot Google Pictures

Einige Beispiele von bekannten Büchern zum Thema KI (Vorschlag von ChatGPT-4o):

  • Neuromancer – William Gibson
  • Do Androids Dream of Electric Sheep? – Philip K. Dick
  • I, Robot – Isaac Asimov
  • The Moon is a Harsh Mistress – Robert A. Heinlein
  • Snow Crash – Neal Stephenson
  • The Singularity is Near – Ray Kurzweil
  • Superintelligence: Paths, Dangers, Strategies – Nick Bostrom
  • The Diamond Age – Neal Stephenson
  • The Age of Em – Robin Hanson
  • The Complete Robot – Isaac Asimov

Nie wurde das Thema jedoch heisser diskutiert, als je zuvor, denn alles begann im Grund ein November 2022, als die Firma OpenAI zum ersten mal GPT2 veröffentlichte. Seither ist die Entwicklung im Bereich generativer KI Systeme, Machine Learning (ML) und Large Language Models (LLM) exponentiell gestiegen, also genau so, wie es Investoren auch gerne hätten.

Die Nutzung generativer Systeme hält immer weiter Einzug in unser geschäftliches und privates Leben. Ob es das schnelle Erstellen einer Email ist, die Erörterung als Hausaufgabe von der Schule, das Generieren von Bildern für Webseiten oder Artikel (siehe auch oben), oder das Erstellen von urheberechtsfreien Videos und Musik für den eigenen Youtube Kanal. Der Vorstellung ist derzeit keine Grenzen gesetzt. Je weiter dabei die Entwicklung in diesem Thema voranschreitet, je mehr Tools, Applikationen, neue GPTs, Generatoren, Agentensysteme, All-In-One Lösungen kommen auf dem Markt und im Internet zum Vorschein. Es sind aber nicht nur die neuen Startups, die wie die Pilze aus dem Boden schiessen, sondern auch die grossen BigTech Firmen, die sich gegenseitig den Kampf um die Vorherrschaft von generativen KI-Systemen angesagt haben. Fast täglich hauen Firmen wie Microsoft, Meta, Google, Anthropic, NMG, OpenAI, xAI, usw. flash-artige Meldungen raus, um einerseits bestehende und potentielle Kunden zu beeindrucken, andererseits der Konkurrenz Angst und Druck zu machen. Dabei kennen wir alle mehr oder weniger den Show-Faktor von Unternehmen, insbesondere, wenn sie aus USA sind.

Beispiel von A.I. Tool-Sammlungen unter futuretools.io

Zurück zum Kernthema des Artikels

Doch würde ich gerne an dieser Stelle zurück zum Kerngedanken dieses Artikels zurückfinden, welche sich um das Thema “Inhalte in Beiträgen auf LinkedIn” drehen. Im Artikel zuvor hatte ich weiterhin über eines meiner Untersuchungen in diesem Bereich berichtet. Darin beschrieb ich, dass ich vor ein paar Tagen eine ziemlich prominente und verifizierte LinkedIn Nutzerin dabei entdeckte, wie sie ihre, von ihrer Community hoch gelobten und heiss diskutierten Beiträge mittlerweile grosszügig über GPTs erstellte und mit einem ansehenlichen Selbstportrait veröffentlichte.

Die meisten Nutzer können solche oder ähnliche Publikationen nicht sofort erkennen oder analysieren. Das so manche Beiträge vollständig durch ein GPT generiert wurden und dann mit leichten Veränderungen veröffentlicht werden, muss schon mit einem suspekten Blick erkannt und mit einem geübten Sinn für generierte Texte hinterfragt werden.

Ist es nicht enttäuschend, wenn gerade die Menschen, bei den diese Autoren ein hohes Ansehen geniessen und bei Fans und Community-Mitgliedern wegen der angeblich hohen Fachkompetenz gelobt werden, auf solche Mittel zurückgreifen?

Ich möchte hierzu das Beispiel aus dem Artikel zuvor wiedergeben und ein weiteres Beispiel offenlegen, das ich heute bei einer anderen Nutzerin entdeckt habe.

Die Praxisbeispiele zeigen auf, dass selbst prominente Nutzer mit einer grossen Follower-Community versuchen, den Output von GPTs zu bestimmten Fragen als “Fachkompetenz” zu reflektieren. Ich nenne sie inzwischen “GPT driven Posts”.

Beispiel 1 von “GPT driven Posts”

Den Bereich im roten Kasten konnte ich mithilfe der Eingangsfrage in zwei GPT-Programmen mit einer Abweichung von 25% strukturell rekonstruieren. Dabei nutze ich ChatGPT4o von OpenAI und Mistral. Es reicht dabei, den ersten Satz, der praktisch als Hauptproblem/Ausgangssituation dargelegt wird, als Frage an ein GPT zu stellen.

Des Weiteren konnte ich feststellen, dass 4 von den insgesamt angewendeten 6 GPT-Detektoren im Durchschnitt eine Wahrscheinlichkeit von 81% gemessen haben, dass es sich bei dem gesamten Text um einen KI-generierten Text handelt. Bei allen 6 Ergebnissen lag die Wahrscheinlichkeit im Durchschnitt bei 67%. Versuchen sie es einmal.

4 von angewendeten 6 GPT-Detektoren haben im Durchschnitt eine Wahrscheinlichkeit von 81% gemessen, dass es sich bei dem gesamten Text um einen KI-generierten Text handelt. Das liegt wahrscheinlich daran, dass der letzte Absatz handgeschrieben wurde.

Beispiel 2 von “GPT driven Posts”

In diesem Beispiel wurde ich als Nutzer ebenfalls als aller erstes von diesem ansehnlichen Foto der Autorin angezogen. Frauen veröffentlichen zu ihren Beiträgen seltsamer Weise oft ein Foto von sich selbt, worin sie im ersten Blick interessant wirken. Das soll als “Door Opener” den Leser auf den Beitrag führen, in dem seine Neugier auf die Person und das Thema geweckt wird (Bei den meisten Männern sollte die Reihenfolge so ziemlich die genannte sein).

Bei diesem Beispiel ist das Vorgehen bzw. das Muster exakt das Gleiche: Man beginnt mit einer Problemstellung, einer Ausgangssituation die in der Gesellschaft allgemein gültig ist, diskutiert wird und eine klare Antwort jedoch oft nicht gefunden werden kann.

Dann folgt ein weiteres Muster, in dem Gründe für die Ursachen des Problems strukturell aufgestellt und jede Ursache/Subthema kurz erläutert wird.

Zum Schluss des Beitrags, welches oft nicht länger als ein DIN A5 Blatt ist, wird eine “Conclusion” geschrieben. Nun sind die Autoren, die für ihre Beiträge die Dienste von KI stark in Anspruch nehmen selbst auch nicht auf die Nase gefallen und ergänzen den ganzen Beitrag noch mit ein paar eigenen Worten, damit unser Bewusstsein zum Schluss dem Ganzen entweder zustimmen kann oder zumindest nicht merkt, dass der Rest oft maschinell erstellt wurde. Auch GPT-Detektoren tun sich mit durchmischten Texten oder leicht veränderten KI generierten Texten etwas schwerer und senken die Wahrscheinlichkeiten entsprechend.

Der im roten Kasten ausgestellte Teil des nachfolgenden Beitrags wurde gemäss der Berechnung von 4 GPT Detektoren zu einer Wahrscheinlichkeit von 99% maschinell erstellt.

Der Beitrag im roten Kasten wurde gemäss der Berechnung von 4 GPT-Detektoren zu einer Wahrscheinlichkeit von 99% maschinell erstellt.

Warum greifen gestandene Autoren immer mehr auf solche Methoden zurück?

Keine Frage. Wenn ein Text nicht durch eine Person selbst niedergeschrieben wurde und dieser Text nicht gesondert als Zitat ausgewiesen wurde, dann gilt er schlichtweg als Plagiat. OpenAI behält sich in den allgemeinen Nutzungsbedingungen vor, die eigenen GPTs mit den Eingaben ihrer Nutzer und den Ausgaben der GPTs weiter zu trainieren und sichert sich die Eigentumsrechte des geistigen Inhalts.

Im obigen Beispiel 2 hat die Autorin ihre Frage, die sie zum Schluss des Beitrags an die Community stellt, bereits selbst beantwortet. Doch es geht dabei nicht um die Beantwortung von Fragen für die Lösung sozialer, technischer, wirtschaftlicher, politischer oder sonstiger Verhältnisse. Es geht einzig und allein um den digitalen Populismus und des Haltens sowie der Erweiterungen des hohen Bekanntheitsgrades sowie des Ansehens. Es geht darum, die Fachkompetenz stetig weiter nachzuweisen und von den Algorithmen des Social Media zu profitieren. Diese Art der Aktivitäten generiert viele sogenannten “Leads” und bringt Aufträge. Manche Menschen machen es einfach nur um sich von der Masse abzuheben und nicht einfach nur irgendjemand unter den eine Milliarde Nutzern auf Linkedin zu bleiben.

Ist dieser Artikel menschlich?

Merken sie den Unterschied nicht selbst so langsam? 🙂 Ich habe diesen Text selbst geschrieben und meine Recherchen eigenständig durchgeführt. Wer Rechtschreibfehler findet, darf sie gerne melden. Das bringt mich nur weiter. Wer Fehler in der Gedankenführung und Argumentation findet, dann ist es eine Ansichtssache, die beide Seiten in einer Diskussion weiterbringen würde.

Wenn jedoch Autoren auf Linkedin es sich bequem machen, in dem sie sich eine Frage ausdenken, diese sich von einem GPT beantworten lassen, die strukturelle jedoch oberflächliche Antwort, die stochastisch generiert wurde als geistigen Erguss präsentieren, dann sind diese Menschen keine Kräfte mit Fachkompetenzen, sondern Blender.

Wichtige Klarstellung zur Nutzung von generativen Systemen bzw. GenAI

Bezüglich meiner Recherchen und der Kritik, die aus den Feststellungen entstanden ist, würde ich gerne folgendes klarstellen:

Bitte nutzt KI und nutzt GPT Systeme weiterhin. Es ist wichtig, um diese oder ähnliche Systeme zu verbessern. Nutzt sie jedoch nicht um eure Community zu beeindrucken um Leads zu generieren, sondern um diesen Output als Startpunkt für tiefgehende Recherchen zu nutzen, die für alle einen Mehrwert bringen. Dann bekommt ihr von uns allen ein Lob und Respekt. Zumindest solltet ihr angeben, dass z.B. ein Beitrag oder dessen Teile entweder von einem GPT erstellt wurden, oder solch ein System zwecks Unterstützung beigezogen wurde. Das macht es transparenet und es ist keine Schande. Im Gegenteil, es zeigt wie flexibel und geistreich ihr seid.

Zum Schluss noch die eigene Erkenntnis

Als ob es nicht reichen würde, dass wir durch GPT-Systeme 20 Jahre zurück katapultiert wurden, wie zu jene Epoche, worin wir uns noch per Chat-Prompts verständigen mussten. Nein wir müssen jetzt auch wieder alles lesen.

Die Hoffung für ein echts Jarvis für Jedermann stirbt zuletzt.

Danke für’s Lesen.

Quellen von GPT Detektoren

https://gptzero.me

https://plagiarismdetector.net/de/ai-content-detector

https://quillbot.com/de/ai-detector

https://www.scribbr.ch/ai-detector

https://zerogpt.net/de

https://contentatscale.ai/ai-content-detector

https://copyleaks.com/ai-content-detector

https://smodin.io/de/ai-inhaltsdetektor

https://writer.com/ai-content-detector/

https://play.google.com/store/apps/details?id=com.osim.chat_gpt_detector&hl=de_CH

Maschinelle Zusammenfassung des Artikels durch ein GPT (bin neidsch wie schön es schreibt):

Der Artikel beleuchtet die rasante Entwicklung und den zunehmenden Einfluss von Künstlicher Intelligenz (KI) und generativen Chat-Systemen, insbesondere in Bezug auf soziale Netzwerke wie LinkedIn. Der Autor beginnt mit einem Exkurs zur historischen und kulturellen Auseinandersetzung mit KI, die bereits seit den 1940er Jahren Thema ist. Er verweist auf klassische Bücher und Filme, die die Beziehung zwischen Mensch und Maschine thematisieren, und zieht Parallelen zu aktuellen Entwicklungen im Bereich generativer KI.

Im Zentrum des Artikels steht die Kritik an der Nutzung von KI-generierten Inhalten durch prominente Nutzer auf LinkedIn. Der Autor beschreibt Fälle, in denen solche Nutzer KI-Systeme wie GPT (Generative Pre-trained Transformer) einsetzen, um Beiträge zu erstellen, die dann als eigene intellektuelle Arbeit präsentiert werden. Er hebt hervor, dass diese Praxis, die oft nicht leicht zu erkennen ist, die Glaubwürdigkeit und das Vertrauen in die vermeintliche Fachkompetenz der Autoren untergräbt. Besonders problematisch sei, dass viele Leser diese Texte als authentisch wahrnehmen, ohne zu wissen, dass sie von einer KI erstellt wurden.

Der Autor führt Beispiele an, in denen er durch den Einsatz von GPT-Detektoren eine hohe Wahrscheinlichkeit für KI-generierte Inhalte in Beiträgen feststellte. Er kritisiert, dass Autoren diese Technologien nutzen, um ihre Popularität und ihr Ansehen auf Plattformen wie LinkedIn zu steigern, ohne die KI-Assistenz offenzulegen. Dies führe zu einer Täuschung der Community und zur Erosion von Vertrauen und Authentizität in sozialen Netzwerken.

Der Artikel schliesst mit einem Appell an die Nutzer von KI-Systemen: Der Autor fordert dazu auf, KI weiterhin zu nutzen, jedoch transparent und verantwortungsbewusst. Er plädiert dafür, die Verwendung von KI als Unterstützung bei der Erstellung von Inhalten offen zu kommunizieren, anstatt diese als eigene geistige Leistung auszugeben. Auf diese Weise könne KI als wertvolles Werkzeug dienen, um tiefgehende und fundierte Recherchen zu fördern, die der Gemeinschaft echten Mehrwert bieten. Transparenz in der Nutzung von KI würde nicht nur die Integrität der Autoren wahren, sondern auch den positiven Einsatz dieser Technologie in den Vordergrund rücken.