"Künstliche Intelligenz" - was da grad passiert ...

in „Politik und Weltgeschehen“

Zu diesem Thema gibt es 315 Antworten

Ich glaube, wenn wir in die USA schauen, dann sehen, wir, dass der Bürger es nicht selbst hin bekommen, gerade wenn noch mächtige Menschen ein Interesse daran haben Falschinformationen zu verbreiten. Was in den USA gerade passiert, ähnelt SEHR und bestimmt nicht zufällig dem Machtergreifungsplan der Nazis. Auch da gehörte gezielte Desinformation, Kontrolle über die Medienorgane und die bewußte Fehlprägung von Begriffen zum Plan. Die Nazis haben auch das, was sie selbst gemacht haben, immer der politischen Gegenseite unterstellt (Goebbels: „Man wirft dem Gegner genau das vor, was man selbst tut.“) z.B. sich selbst als Opfer dargestellt, obwohl sie die Täter waren ("Verschwörungen"). Sie haben gezielt die Emotionen der Massen gesteuert und Tatsachen zu verschleiert, um die eigenen Anhänger sich elitär fühlen zu lassen und zu manipulieren (sinngemäß in die heutige Zeit übertragen: "Wir sind klüger, wir sind die Elite, nehmt das ihr Schlafschafe!").

Das war ja eine der zentralen Lektionen der NS-Zeit, die Deutschland gezogen hat: Das der Medienapparat in Deutschland so vielfältig und unabhängig wie irgendwie möglich sein muss, damit das nie wieder passiert, das quasi per "Volksempfänger", nur noch eine (falsche) Wahrheit verbreitet werden kann. Ist ein Grund ,warum es bei uns einen Rundfunkbeitrag für alle gibt und viele verschiedene Medienanstalten. Klingt teuer, aber sich so etwas nicht zu leisten, schwächt die Demokratie im Staat. Jetzt haben sich die Medien aber weiterentwickelt, alles Digitale ist dazu gekommen. (By the way, w er sich mal die Medienlandschaft in den USA anschaut, wird sich nie wieder über den Rundfunkbeitrag beschweren....)

Wenn man nicht eingreift, dann passiert dort durch gezielte Manipulation von Social Media z.B. sowas, dass einige Bevölkerungsschichten wirklich glauben, dass die klassische, regulierte Presse, die "Lügenpresse" ist und nicht die ironischweise meist alternativen, unregulierten Kanäle.

Wir brauchen eine Verpflichtung zur objektivstmöglichen Wahrheit bei Nachrichten, eine klare Kennzeichnung von dem was in Wirklichkeit Werbung und keine Information ist und das transparent gemacht wird, wer gezielte Kampagnen in Auftrag gibt. Desweiteren müssen Inhalte meldbar sein, die dann in einen Überprüfungsprozess gehen.

Ich habe mich mit dem Digital Service Act nicht im Detail beschäftigt, aber ganz grundsätzlich begrüße ich die Initiative zu mehr Transparenz von Informationsquellen und zur Informationsverbreitung auf Social Media Plattformen und finde es - allein ob der Masse von Infos (und ev. auch weil ich gehört habe, was für psychopathische Sch... sich die menschlichen Communitymanager da schon anschauen mußten) auch okay, wenn in erster Instanz von KI unterstützt wird, so lange z.B. bei Widerspruch nochmal ein Mensch prüft.

Kommunikation braucht einen sicheren, vertrauenswürdigen Raum und es wird immer wieder Instanzen geben, die den angreifen. Glaube niemand stellt ernsthaft in Frage, dass eine Meinung auch weiterhin geäußert werden darf, man darf nur vielleicht nicht mehr im großen Stil falsche Tatsachen behaupten oder zu illegalen Aktivitäten aufrufen.

Und klar, jeder Mechanismus der existiert kann auch missbraucht werden z.B. durch eine korrupte Regierung. Es ist nicht alles schwarz und weiß, aber grundsätzlich macht da mehr Regulierung Sinn, damit ein System nicht einfach von Leuten mit viel Geld mit Fehlinformationen geflutet werden kann.

@ Selfcare
Ich stimme dir in vielen Punkten zu aber hier:
"Wir brauchen eine Verpflichtung zur objektivstmöglichen Wahrheit bei Nachrichten, eine klare Kennzeichnung von dem was in Wirklichkeit Werbung und keine Information ist und das transparent gemacht wird, wer gezielte Kampagnen in Auftrag gibt. Desweiteren müssen Inhalte meldbar sein, die dann in einen Überprüfungsprozess gehen. "
beißt sich die Katze eben in den Schwanz, denn wer sollte neutral genug sein diese Feststellung dauerhaft und ebenfalls ohne Manipulation treffen zu können?
Ich sehe das große Risiko darin, wenn man sich auf solch eine "Institution", egal von wem sie betrieben wird verlässt, dann besteht das große Risiko darin, dass man nur dieses System korrumpieren muss und schon kann man selbst wieder bestimmen was "wahr" ist und was nicht. Gleiches gilt für eine Überprüfung, denn wer sollte denn hier der "Prüfende" sein und ist diese Instanz über jeden Zweifel erhaben? Wenn wir dann einen Prüfer für einen Prüfer brauchen, dann bricht das System direkt wieder zusammen und mit dem ersten Fall von Missbrauch ist im Normalfall jegliches Vertrauen gestört.


Streng genommen darf man das:
"...man darf nur vielleicht nicht mehr im großen Stil falsche Tatsachen behaupten oder zu illegalen Aktivitäten aufrufen."
schon heute nicht und dafür müsste man weder neue Gesetze noch zusätzliche Instanzen schaffen. Das Problem an der Stelle ist auch heute schon die Durchsetzbarkeit solcher Gesetze und Regelungen. Wie will man z.B. mit Firmen und Internetseiten außerhalb der EU verfahren? Machen wir es wie China und zensieren den kompletten Internetzugang, damit dann alles über VPN und Darknet abläuft und die Regierung keine Kontrolle mehr hat? Ich glaube viel wichtiger ist es die Bürger zu mündigen und klar denkenden Individuen zu erziehen. Denn das wäre für mich persönlich der beste Schutz vor all dem. Was wir aber gerade in Europa machen ist genau das Gegenteil, wir verlagern die Verantwortung in Staatssysteme und wenn man sich erst einmal daran gewöhnt hat, dass der Staat einem sagt wo es lang geht und das auch schon richtig sein wird, dann haben wir natürlich sofort wieder die Goebbels Problematik vor der Tür.


Bei dem Absatz denke ich oft:
"aber grundsätzlich macht da mehr Regulierung Sinn, damit ein System nicht einfach von Leuten mit viel Geld mit Fehlinformationen geflutet werden kann."
Wären die User selbst clever genug, dann würden sie ja solche Plattformen meiden, weil wer möchte schon wissentlich Scheiße erzählt bekommen. Aber das ganze ist ja viel subtiler, weil die Nutzung des Internets beschränkt sich ja zu einem Bruchteil auf Informationsgewinnung und zur Mehrheit auf Entertainment. Das sieht man ja auch an Dingen wie Werbung, Social-Media und Streaming. Das ist im Prinzip ja erst einmal auch nichts verwerfliches, denn die meisten Menschen suchen nun mal eher nach Zerstreuung und passiver Berieselung. Die Falschinformationen werden dann aber über diese Kanäle eingestreut und sind vielfach ja gar nicht mehr als reine Nachrichtenartikel oder Falschmeldungen als solches zu erkennen. Es werden mit solchen Systemen ja Gesellschaftsnarrative erzeugt, die dann von den Konsumenten als "vollkommen normal" empfunden werden oder es werden moralische und politische Haltungen vorgelebt, die in Wirklichkeit aber gar nicht die Mehrheit abbilden. Da sehe ich die viel größere Gefahr und mit KIs und all den technischen Möglichkeiten darf man nicht vergessen, dass auch die "Täterseite" immer mehr Möglichkeiten bekommt. Und sind wir mal ehrlich. Eine kriminelle Organisation war in der Vergangenheit immer schlauer, schneller und besser ausgerüstet als jeder Staat. Im Grunde machen wir nur eine Verfolgungsjagd, die schon zu beginn entschieden wurde. Wir fangen vielleicht immer mal wieder einen Täter, aber dafür gibt es 5 weitere, die mit anderen Methoden uns schon wieder weit voraus sind. Menschen haben leider auch die Eigenschaft ihre Kreativität und Schöpfungskraft für solche Dinge zu nutzen und da wird ein Staat und vor allem Gesetze immer nur "reaktiv" funktionieren und dann war es immer schon mindestens 1 mal zu spät. 😕

Eine eigene KI zu entwickeln ist extrem, extrem teuer und du brauchst dafür wirklich hoch spezialisierte , hochintelligente Leute (Informatiker und Mathematiker) mit sehr spezialisierter Ausbildung von den Top-Universitäten der Welt plus Zugang zu extrem teuren Resourcen. Metas LLM allein braucht mehrere Atomkraftwerke. Das ist gerade sehr heißes Forschungsgebiet.

Alle heutigen AIs (Gemini, Claude, LLaMA, Grok, GPTs, DeepSeekl) basieren im Grunde auf einer ähnlichen Architektur und es gab - gerade weil die AI-Bubble am Anfang so klein war - auch einen massiven Wechsel von Talenten von einem zu manderen. Man könnte sagen, die heutigen Modelle sind alle Geschwister, die unterschiedliche Regeln erhalten, unterschiedliche Datenquellen als Input erhalten und ein unterschiedliches FineTuning. Aber es ist ein bißchen wie bei Autos: Ja, es gibt Unterschiede, aber bis vor Kurzem arbeiteten alle mit Otto-Motoren. Ich würde aber keine massiven Unterschiede bei den Ergebnissen erwarten - WENN die Parameter und der Input ähnlich sind. (Was sie de facto nicht sind.) Der eine Bruder ist halt eher sprachlich ein Rüpel, der andere besser im Management der Resourcen, die eine Schwester besser in Mathe und die andere mental am stabilsten, weil sie weniger halluziniert und ihr Vorgehen transparenter macht und begründet, aber sie bleiben ähnlich.

Die Entwicklung ist ja noch längst nicht am Ende, das Forschungsgebiet ist relativ neu und zieht gerade sehr viel Talent weltweit an. Es ist durchaus möglich, dass sich noch neue "Familie" finden, die Dinge ganz anders machen, die auf neuen Erkenntnissen der Grundlagenforschung basieren. Öffentlich-rechtliche Strukturen würden kein Umfeld bilden, solche Forschung zu ermöglichen. Da sollte man eher ein MItglied der gerade führenden Familie adoptieren und das beste daraus machen d.h. kleinere LLMs fine-tunen oder eigene spezialiserte Modell auf Basis existierender bauen. Geht ja alles.

Was vermutlich sinnvoll wäre ein Forschungsverbund europäischer Universitäten mit dem Ziel der Entwicklung einer europäischen AI, die z.B. staatliche Geschicke wie z.B. Verkehrsströme steuern oder Finanzströme kontrollieren könnte.