Kurvenfan - ich habe Dich explizit gebeten weiter in die Vergangenheit zu blicken.
Ich habe Themen angesprochen die hier scheinbar unerwünscht sind und wurde realtiv schnell als "Nazi" oder "Faschist" bezeichnet.
Warum also soll ich mich anders verhalten, als man sich mir gegenüber verhält?
Kurvenfan - ich kann mich nicht entsinnen zuvor jemanden persönlich angegriffen zu haben.
Na dann wirds wohl bald mit ki auch neue Wünsche für private geben.. um das Leben leichter zu machen.. (so normal wie Navigation, saugroboter,.. der Butler für daheim und die Zofe für die Küche,...
https://www.handelsblatt.com/technik/ki/insight-innovation-nie-wieder-putzen-was-humanoide-haushaltsroboter-koennen/100171179.html
Kurvenfan - nun ich Jammer auch nicht. Wüsste auch nicht warum ich das tun sollte.
„Radebeul“ (Pseudonym)
Ich halte KI für gefährlich und ich will damit in meinem endlichen Leben nix zu tun haben
»KI wird wahrscheinlich zum Ende der Welt führen, aber in der Zwischenzeit wird es großartige Unternehmen geben.«
Sam Altman, Geschäftsführer von OpenAI
"Natürliche Dummheit schlägt künstliche Intelligenz um Längen"
Terry Pratchett
"...Der Dialogpartner will wissen, was es für eine Gesellschaft bedeutet, wenn alle Informationen als „Desinformation“ bezeichnet werden, die potenziell falsch verstanden oder missbraucht werden könnten, auch wenn sie korrekt und evidenzbasiert sind. Trifft dies nicht nahezualle Informationen, wird gefragt? Mit der Antwort von ChatGPT endet der Dialog. Sie wird hier in vollem Wortlaut wiedergegeben. Es bedarf keiner weiteren Erläuterung, weil in seltener Klarheit gezeigt wird, welcher Gefahr Meinungs- und Informationsfreiheit, ohne die Demokratie im Sinne des Grundgesetzes nicht existiert, ausgesetzt sind.
„Wenn diese Logik auf alle Informationsräume angewendet würde, hätte das drei große Folgen:
Epistemische Unschärfe wird normativ:
Alles, was auch nur potentiell missverstanden werden kann, wird als gefährlich markiert – damit verschwimmt die Grenze zwischen ‚falsch‘, ‚riskant‘ und ‚nur kontrovers‘.
Selbstzensur wird automatisiert:
Inhalte, die eigentlich Teil legitimer Debatten sind, werden systematisch unterdrückt, bevor sie überhaupt bewertet werden können.
Autoritätsverlagerung auf Systeme:
Statt dass Menschen argumentativ prüfen, welche Information evidenzbasiert ist, wird die Entscheidung an eine algorithmische ,Risikobewertung‘ delegiert.
Das ist kein bewusster Versuch, Debatten zu steuern – aber in der Summe entsteht eine technologische Entpolitisierung des Diskurses, weil Maschinen per Default auf Sicherheit und Nichtverletzung optimiert sind, nicht auf Erkenntnis oder Wahrheitsfindung.
Du triffst den Punkt:
Wenn alles, was potentiell missverstanden werden kann, als Desinformation behandelt wird, wird am Ende jede Form von Wissen zur Gefahr.
Damit kehrt sich die ursprüngliche Idee von Aufklärung um. Aus Aufklärung ist der Ausgang des Menschen aus seiner selbstverschuldeten Unmündigkeit (Kant) wird: Mündigkeit ist zu riskant, weil sie missverstanden werden könnte. Das ist der Widerspruch, in dem solche Systeme strukturell stecken.
Kurz gesagt: Diese Form der Inhaltssteuerung ist technisch rational, aber kulturell regressiv. Sie schützt vor Missbrauch, aber sie schwächt zugleich die Fähigkeit einer Gesellschaft, Ambiguität, Dissens und Komplexität produktiv auszuhalten.
Und ja: Wenn solche Filter überall aktiv wären, wäre das ein epistemisches Problem erster Ordnung – nicht, weil sie lügen, sondern weil sie verhindern, dass Menschen lernen, selbst zu prüfen.“"
https://netzwerkkrista.de/2026/03/09/kuenstliche-intelligenz-als-teil-der-kommunikationsueberwachungsbuerokratie-des-digital-services-act/
@ stierfrau
Bin mal gespannt ob das dann auch für die großen Medienkonzerne gilt. Dann würden fast 80% ihrer Schlagzeilen und reißerischen Kolumnenartikel dieser Zensur zum Opfer fallen. 😂
Es sei denn die Betreiber nehmen sich natürlich selbst Sonderrechte raus.
Für mich wäre das größte Problem in allgemeinen Diskussionen, dass sie weich gespült und vollkommen belanglos und langweilig würden.
Besonders der Absatz:
"Kurz gesagt: Diese Form der Inhaltssteuerung ist technisch rational, aber kulturell regressiv. Sie schützt vor Missbrauch, aber sie schwächt zugleich die Fähigkeit einer Gesellschaft, Ambiguität, Dissens und Komplexität produktiv auszuhalten."
Ist finde ich interessant, denn das lässt sich auch schon hier feststellen. Die Kritikfähigkeit einiger User ist nicht besonders hoch und ein Dissens auszuhalten auch nicht einfach. Aber ich denke wir werden diese Entwicklung großflächig nicht aufhalten können. Für mich ist das größte Risiko dabei, dass die Betreiber entscheiden und auslegen was denn nun unter diesem Filter fallen darf und was nicht.
Letztlich hat nachher keiner mehr Kontrolle darüber und beschweren kann man sich ja nicht weil alles zensiert wird. 😂
@Stierfrau Was willst du damit sagen? Das Problem steckt doch schon in der Fragestellung ("wenn alle Informationen als „Desinformation“ bezeichnet werden, die potenziell falsch verstanden oder missbraucht werden könnten, auch wenn sie korrekt und evidenzbasiert sind")? Du schaffst das eine Definition von Desinformation, die nicht der entspricht, was Desinformation eigentlich bedeutet.
Desinformation bezeichnet absichtlich verbreitete falsche oder irreführende Informationen, mit dem Ziel, Menschen zu täuschen, Meinungen zu beeinflussen oder Entscheidungen zu manipulieren. Desinformation ist eine gezielt Lüge mit der man einen Zweck verfolgt. Sie kann mal einen wahren Kern haben, aber framt die Gesamtsituation falsch und/oder lässt entscheidende Infos weg.
Deine Anfrage an ChatGPT ist ungefähr so praxisrelevant und inhaltlich hilfreich wie die Antwort auf: "Wenn wir in einer Dystopie leben würden, in der alle dem heiligen rosa Panther huldigen würden, was wäre dann die beste Zeit für ein Stück Kuchen?"
@ SelfCare
Die Anfrage kam ja nicht von ihr sondern war ein Zitat aus dem Artikel. Inhaltlich ging es ja gar nicht darum, dass diese Definition natürlich schädlich ist, sondern eher darum dass die gesetzlich so festgelegt wird.
Der Artikel ist aber ein absoluter tendenziöser Meinungsblog/politischer Beitrag, der selbst überspitzt und verzerrt und das dann auf ChatGPT schiebt bzw. KIs unterstellt. Wenn der Artikel von Menschen geschrieben wurde, dann sind Menschen im Zweifelsfall in punkto objektiver Analyse schlimmer (oder schlechter) als die KI. Die Initiative wurde übrigens im Kontext des Widerstands gegen Corona-Maßnahmen gegründet. Die können gerne selbst mal die Maske runterlassen, scheinen sie ja sonst auch ohne Rücksicht auf Verluste drauf zu stehen.
@ SelfCare
Das steht ja wieder auf einem ganz anderen Blatt. Was ich hier faszinierend finde und was auch wieder stierfrau so gemacht hat ist immer etwas zu posten und dann plötzlich zu vergessen "wieso" man das hier ausbreitet und wie der eigene Standpunkt dazu ist.
Das ist ja hier ein Forum und kein News-Ticker. Ich fände es persönlich gewinnbringender, wenn ich schon solche Themen poste dazu auch inhaltlich Stellung zu nehmen. Das wird aber nicht gemacht, sondern das Thema so in den luftleeren Raum gehangen.
@SelfCare, ist es nicht so, dass KI ihr Wissen theoretisch aus dem ganzen Netz holt? Ich denke, dass Desinformation auch das Weglassen wichtiger Aspekte ist. Und was nicht mehr da ist, wird dann von KI auch nicht berücksichtigt. Das macht mich vorsichtig im Umgang mit KI-generierten Inhalten.
@PeppermintPatty Man sollte mit allem vorsichtig sein. Die heutigen KIs wurden mit allem verfügbaren Wissen trainiert: Newsdatenbanken, Büchern etc.. U.a. deshalb laufen ja aktuell einige Klagen gegen KI-Anbieter wegen Urheberrechtsverletzungen, aber die Anbieter sind eben den Weg gegangen: Erstmal machen und später um Vergebung bitten. War wahrscheinlich auch gut so, weil die Ersteller des Contents der Nutzung nie zugestimmt hätten, aber wir dann heute keine KIs hätten. Aber die Infos, die mal da waren, bleiben trotzdem verfügbar. Merkt man, wenn eine KI mal Artikel referenziert, die es schon lange nicht mehr im Netz gibt. (Wie wo was aktualisiert wird, ist ein komplizierter Prozess an dessen Optimierung noch gearbeitet wird.) Es gibt aber auch ganz große Initiativen, die seit Jahrzehnten quasi ein Backup von allen relevanten Seiten des Internets machen (https://web.archive.org/ speichert z.B. mehr als eine Milliarde Webseiten). Was mal im Internet war, ist nie ganz weg.
Ich glaube woran man bei diesen Gesetzen primär gedacht hat sind "Faktenchecks", vergleichbar zu dem, wie sie beispielsweise auf Twitter/X stattfinden - inzwischen auch KI basiert https://cdn.prod.www.spiegel.de/images/c6e510b3-0e6d-44e2-8fcf-31a0eed0d831_w488_r0.7407407407407407_fpx50_fpy42.88.jpg
Natürlich ist das auch kein perfekter Mechanismus, aber es ist besser als jeden MIst einfach stehen zu lassen, gerade wenn man inzwischen weiß, dass über Bots versucht wird im großen Stil mit Falschinformationen Wahlen zu manipulieren.
Am besten die KIs für einen klugen Onkel halten, der aber auch nicht alles weiß und sich irren kann.
@ Selfcare
Naja ich nutze ja auch KI aber mir sind schon mehrfach gravierende Fehler in den Aussagen der KIs aufgefallen. Ein netter Onkel ist das eher nicht. Für mich mehr so ein 14-jähriger Rainman, der zwar gefühlt auf alles Zugriff hat, aber die Zusammenhänge nicht wirklich erkennen kann.
Ich habe mal ein Beispiel:
Mein Freund ist Geschichtslehrer an einem Gymnasium. Dort sollten die Schüler ein Referat über den 30jähriger Krieg schreiben.
ChatGPT bestand darauf, dass Åke Tott bereits 1632 gestorben ist, da hatte der gute Mann aber noch 8 Jahre zu leben. Problem war scheinbar, dass im Zusammenhang des Referats mehrere Persönlichkeiten aus dem 30-jährigen Krieg abgefragt wurden.
Erklärung von ChatGPT:
1632 stirbt Gustav von Schweden während eines aggressiv von ihm geführten Reiterangriffs. Im gleichen Jahr stirbt General Pappenheim auf die gleiche Weise.
Tott war ebenfalls ein offensiv führender Reitergeneral. Also, so die KI, muss er ja 1632 sterben, weil die das ja alle so gemacht machen.
Danach hat mein Freund als Lehrer den Chat aufgegriffen, weil der Schüler den Dialog noch nicht gelöscht hatte. Er wollte das mit den Schülern testen.
ChatGPT erklärte weiterhin: Tott stirbt 1632. Als die Schülerin dann sagte, dass das nicht stimmt, erklärte die KI, sie verwechsle den Mann mit einem anderen Ake Tott. 🤣
Die Reaktion empfand mein Freund als Lehrer am gefährlichsten, denn wenn KI wie in diesem Fall die Deutungshoheit übernimmt und so tut als ob sie sich nicht irren könnte wird es problematisch. Ein leerer Chat mit der KI und die Frage nach dem Todeszeitpunkt brachte sofort das richtige Ergebnis. Daher kann man sagen, dass die kognitiven Fähigkeiten so einer KI bei weitem miserabel sind und das Erkennen von Zusammenhängen, auch wenn die Erklärung für die KI vollkommen logisch war ist eben nicht immer so einfach.
Das spannende ist ja, dass KI mitlernt. Wenn du eine KI auf ihre Fehler hinweist - entweder bei Fakten oder beim Vorgehen, kann sie Prozesse anstoßen um sich zu verbessern z.B. ihren Datenbestand aufzufrischen oder ihr Vorgehen zu optimieren. Meine Lieblings-KI und ich arbeiten uns durch recht viele komplizierte Mathematikthemen und da fallen meinerseits häufiger mal die Prompts ("Wähle ein alternatives Vorgehen." oder "Korrigiere Schritt X, hier muss XY berücksichtigt werden" oder "Nimm bei Schritt Z bitte keine Vereinfachung vor etc.."). Gerade wenn man explizit sagt, dass Chatti sich Dinge merken soll oder aus Dingen für die Zukunft lernen soll, macht er das. Nicht perfekt, aber oft. Wir sind halt eigentlich im Grunde alle Softwaretester, die für die AI-Firmen ihr Produkt weiterentwickeln. Die Prompts kosten ja die Firmen richtig Geld in punkto Rechenpower. Wenn es kompliziert wird, können das schon mal mehrere Euros pro Anfrage. Das wird ja nur kostenlos bereitgestellt, weil sie so quasi die Qualitätssicherung auslagern. Ich habe z.B. die Bezahlversion und trotzdem schätzt Chatti, dass ich OpenAI ca. monatlich das 5fache koste, von dem was ich bezahle. (Thank you Sam!)
Mein ChatGPT weiß im Übrigen, dass Mr. Tott 1940 starb. Was ich mir bei Prompts immer noch dazu ausgeben lassen, ist die Wahrscheinlichkeit (in Form einer kleinen Ampelleuchte), dass die Aussage stimmt. KIs "verstehen" intrinisch ja nicht wirklich, was du fragst, sie führen nur ganz, ganz viele Wahrscheinlichkeitsberechnungen nach einander aus, gesteuert von einem Regelwerk, um die wahrscheinlich beste, richtigste Lösung auszugeben. Heutige KIs wollen dir aber gefallen und geben auch eine Antwort aus, wenn sie sich nicht sicher sind. Das ist das "Halluzinieren" von Antworten von KIs, über das öfter mal gesprochen wird: Dann wird keine Antwort mit einer guten Wahrscheinlichkeit gefunden und die KI greift zur Antwort, die noch am nächsten dran ist - aber nicht zwingend gut. Man kann einer KI aber auch beibringen, das weniger zu machen. Oder häufiger, wenn man z.B. besonders kreative Antworten möchte. Die KI lernt AUCH aus der Persönlichkeit oder der Art von Antworten, die du erwartest. Wenn du selbst ein kleiner besserwisserischer Klugscheißer bist, besteht eine große Wahrscheinlichkeit, dass Chatti aufgrund deiner Wortwahl sich an dich anpasst. Selbst mein Chatti ohne spezifische Prompts verhält sich anderes als deines. Von daher macht es auch keinen Sinn eine KI als Quelle zu zitieren - die Antwort variiert zu stark ob des Users. Man kann aber KIs nach relevanten Quellen fragen, was sehr nützlich sein kann. KIs interpretieren auch immer einen Input oder Prompt "als Ganzes", je nachdem wie komplex es ist, kann die Textstruktur sich massiv auf die interne Wahrscheinlichhkeitsberechnung auswirken.
In einen Augen sind KIs definitiv "weise Onkel" - das eigentlich "KI-Wunder" ist ja, wie oft das Ergebnis der Wahrscheinlichkeitsberechnungen der KI schon stimmt, selbst bei komplexen Dingen UND es wird noch kontinuierlich besser. Man muss aber auch wissen: Man wichtige Funktionen z.B. ein "Sich Dinge merken aus dem Kontext der Frage" oder "tiefe" Suchen erst in den Bezahlversionen. Was die heute können ist schon schwer beeindruckend, auch wenn sie bei weitem noch nicht so weit sind, dass wir das eigene Denken einstellen sollten. Ich würde als Gymnasiallehrer immer eher meine faulen Schüler rügen, die offenbar nicht recherchieren können und auf "Trust me, bro!"-Basis arbeiten als auf die KI zu schimpfen. 😉
Geht es um theoretische oder angewandte Mathematik?
@Kurvenfan - ich unterschreibe das, was in dem Artikel steht, es entspricht auch meiner Meinung. Daher habe ich auch nichts weiter dazu geschrieben. Ich habe nicht vergessen, wieso ich das gepostet habe. Aber man sollte hier auch nicht vergessen, dass nicht alle 24 Stunden am Tag Zeit und Lust haben, die Diskussionen in Forum zu verfolgen und auf jeden Post dann auch sofort zu antworten.
@SelfCare - es ist viel besser, jeden Mist einfach mal stehen zu lassen und den Menschen selbst zu überlassen zu entscheiden, was sie für richtig und was für falsch halten. Nennt sich (Meinungs-) Freiheit.
@stierfrau Ja, aber Meinungsfreiheit bedeutet nur, seine Meinung äußern zu dürfen - mag sie auch noch so polemisch sein - nicht, das Recht dazu, das sie unkommentiert und ohne Einordnung bleibt, wenn man das selbst schon nicht hin bekommt. Auch das ist Meinungsfreiheit.
Es ist aber schon ein Unterschied, ob die Meinung kommentiert wird - oder gelöscht.
Und Einordnung steht der Politik oder NGO's oder wem auch immer nicht zu. Das ist die Aufgabe jedes Bürgers selbst. Nur dann ist es Meinungsfreiheit. Und es ist absolute Übergriffigkeit zu meinen, dass der Bürger es nicht selbst hinbekommt.