Eine Verschlüsselung ist im “Neusprech” nur sicher, wenn die Regierung (oder wer auch immer im Auftrag) die Verschlüsselung umgehen kann.
Und eine KI mit synthetischen Daten durchzuspülen ist sehr, sagen wir mal, interessant.
Fefes Kommentar dazu:
Damit die Daten der Versicherten nicht gefährdet werden, will Lauterbach die KI-Systeme “mit synthetischen Daten durchspülen […] wie eine neue Heizung, die man sich kauft”. Ja Scheiße, Bernd! Wieso sind wir da nicht selber draufgekommen! Das sollten wir auch mit anderen Dingen tun. Haben Sie Ihre Firewall schon durchgespült? Warum nicht ein Business draus machen? Der Bankkontendurchspülservice! Hey, die meisten Webforen könnten mal eine Tiefenreinigung brauchen. Bei Facebook, Twitter und co reicht wahrscheinlich Durchspülen nicht, da bräuchte man eine Hochdruckreinigung. Ich bin dann mal kurz weg, das Blog hier durchspülen.
Fefe ist ein Horst und stellt sich künstlich doof.
Er weiß 1000% was ein Integration-Test ist und dass man InfoSec-/Pentests am besten mit synthetischen Daten anstatt mit echten durchführt.
Er weiß auch, dass Politiker solche Dinge anschaulich formulieren müssen.
Wieso sind wir da nicht selber draufgekommen!
Ja warum ist eigentlich die deutsche IT so ein Treppenwitz, fefe? Warum bildet das einzige “Flagschiff” SAP hierzulande eine ganz eigene Treppenwitzkategorie?
Wieso macht es Code Blau nicht einfach mal besser und baut eine gute, dezentrale, sichere Patientenakte? Oder Behörden-IT oder Strafzettel-Apps oder flächendeckende authentifizierung mit ePA usw usw? Die Ausschreibungen sind doch öffentlich?
Weil er ein armchair Infrastrukturexperte ist, so eine süffisante Formulierung das Selbstwertgefühl steigert und natürlich alles eine super “Medienkompetenzübung” ist.
In der Praxis sind gatling, dietlibc & co. aber halt doch nicht mehr als Laborexperimente, die nie die “Serienreife” für Produktivbetrieb geschafft haben. Warum wohl…
Die Welt wäre so viel besser wenn niemand mehr FEFE aufmerksamkeit schenken würde. Der Typ labert so oft so reaktionäre kacke. aber hauptsache über irgendwas aufregen weil man selbst mal irgendwas mit IT gemacht hat.
Zu seinen Gunsten: In InfoSec dingen hat er schlicht recht. Aber das Gejammer allein bringt halt auch nichts. Und IT-Politisch kann man es ihm anscheinend nie recht machen.
In Sachen Politik war es in den nuller-Jahren oft ganz amüsant, fefe mit einem ordentlichen Augenzwinkern zu lesen. Aber heute wirkt das was ich noch so mitkriege, als hätte er in seiner Blase schlicht den Knall nicht gehört.
In Zeiten von Tatsachenverdrehungen und zersetzender Propaganda, ist seine “Medienkompetenzübung” schlicht auf ganzer Länge gescheitert.
Also dietlibc und tinyldap hab ich schon in serienprodukten gesehen
Und ist dieses “Serienprodukt” jetzt gerade mit uns im Raum?
Letzter Release 2018 per CVS. Sicherlich gibt es paar Entscheider die das durchgehen lassen, weil sie den Unterschied zwischen uClibc und kleinem Zeh nicht kennen.
https://www.telco-tech.de/liss-internet-security-appliance/
Das cvs ist halt auch so ein thema. Fefe nimmt keine patches an. Wir hatten über 100. unter anderem dynamisches linken eingebaut. Wenns auf grösse ankommt ist die dietlibc halt unschlagbar. uclibc ist deutlich grösser.
Klar kann man über den kerl viel negatives sagen ist menschlich bestimmt kein teamplayer, aber dietlibc war schon super. Die software hatte 12mb mit firewall, proxy etc.
Das macht bestimmt total spass das zu maintainen.
uclibc ist deutlich grösser.
Man muss nicht unbedingt alles compilen. Ich bin da schon ein paar Jahre raus aber würde fast wetten, uClibc zu verschlanken ist weit weniger Aufwand als dietlibc für den produktiven Einsatz aufzuspritzen.
Kann mich natürlich täuschen. Dass gatling und dietlibc guter code ist (oder mal war) bestreite ich nicht. Aber das allein reicht halt nicht, sonst hätten wir hierzulande nicht die Probleme, auf die Fefe so gerne herab blickt.
Man muss nicht unbedingt alles compilen. Ich bin da schon ein paar Jahre raus aber würde fast wetten, uClibc zu verschlanken ist weit weniger Aufwand als dietlibc für den produktiven Einsatz aufzuspritzen.
glaube ich nicht. die uclibc hat halt einfach viel mehr features. Dafür hat man halt auch viel weniger Aufwand Software damit zu bauen. und heutzutage kommts auf das bisschen Grösse meistens ja nicht mehr so an. Damals hat sich die Frage aber gar nicht gestellt, weil es noch gar keine uclibc gab.
Kann mich natürlich täuschen. Dass gatling und dietlibc guter code ist (oder mal war) bestreite ich nicht. Aber das allein reicht halt nicht, sonst hätten wir hierzulande nicht die Probleme, auf die Fefe so gerne herab blickt.
das herab blicken ist hier halt das Problem, glaube ich. Hätte der damals (als es eben noch keine Alternativen gab) etwas sozialkompatibler und offener auf der dietlibc Mailingliste kommuniziert und mehr Ideen und patches angenommen, anstatt auf Prinzipien zu beharren im DJB-Style, wäre die dietlibc heute vielleicht auf jedem Plastikrouter á la FritzBox. Wer weiss.
Ich stimme dir bei allem zu, aber woher kriegt Lauterbach so einen mächtigen Integrationstest für ein Konstrukt (große Sprachmodelle und ähnliche KIs), deren Indeterminismus ja die Herausforderung ist?
Wenn die jetzt erst einmal mit synthetischen Daten ein Model trainieren und dann die generierten Ausgaben testen wollen, dann muss man ja beweisen können, dass man jede Kombination bedacht hat. Es reicht ja nicht, einfach nur die Ausgabequalität zu erhöhen, was ja das ist wofür solche Test für LLMs geschrieben werden.
aber woher kriegt Lauterbach so einen mächtigen Integrationstest
Es reicht, wenn das in Ausschreibungstexten oder Verordnungen steht.
Wenn die jetzt erst einmal mit synthetischen Daten ein Model trainieren
Du stellst dir das zu kompliziert vor. Man trainiert nicht nur ein Modell, man testet ALLES komplett. Also z.B. auch die Datenweitergabe in die USA. Wenn dann jemand am anderen Ende private/geheime synthetische Daten extrahieren kann, ist nichts wichtiges verloren.
Abgesehen davon weiß momentan vermutlich kaum jemand, was konkret geplant ist. Dafür muss man vermutlich noch auf Konkretes warten. Das war ja nur eine Ankündigung bisher.
Ich rede hier über die KI selbst und nicht was mit den Daten vor der Eingabe bzw. nach der Ausgabe geschieht. Und da ist das Testen weder trivial noch lange nicht vollständig gelöst. Es einfach zu fordern hilft da wenig.
Daher muss mMn immer davon ausgegangen, dass solche KI es schafft Daten zu deanonymisieren. Entsprechend muss auch die Verantwortung für und Transparenz über deren Nutzung sowie der gesammelten Eingabedaten strikt reguliert werden, wovon wir ja auch noch weit entfernt sind.
und nicht was mit den Daten vor der Eingabe bzw. nach der Ausgabe geschieht
Das ist aber das einzig relevante. Ein Modell selbst enthält nie wirklich schützenswerte Daten im Sinne des Datenschutz.
muss mMn immer davon ausgegangen, dass solche KI es schafft Daten zu deanonymisieren
Deswegen wird vorher getestet. Aber mit synthetischen Daten.
Entsprechend muss auch die Verantwortung für und Transparenz
Da bin ich voll bei dir. Wird auch gemacht soweit das technisch machbar und sinnvoll ist.
über deren Nutzung sowie der gesammelten Eingabedaten strikt reguliert werden, wovon wir ja auch noch weit entfernt sind.
Was würdest du vorschlagen, was über die EU Initiative hinaus geht?
Ich verstehe sowieso überhaupt erstmal gar nicht, was er mit “durchspülen” meint. Wie sieht die Praxis dahinter aus und wie soll das helfen?
Damit meint er, dass die Systeme mit dummy daten auf Datensicherheit geprüft werden sollen. Also ein Testbetrieb, der momentan so gut wie nie in der fertigen Integration stattfindet.
So kann man vorher schon prüfen, ob irgendwo doch noch private/deanonymisierbare Daten leaken, ohne dass es - wie in der Vergangenheit - echte Daten sind.
Klingt für mich erstmal wie sinnvolle Anwendung von vorhandener best-practice.
Klingt, als ob er einen Haufen Dummy Daten reingeben will.
Zum Training ist das Schrott und beschädigt das Model.
Für Ergebnisse ist es einfach sinnlos.
Relevant ist unter anderem, ob der Anbieter vertrauenswürdig ist und wie weit man die Daten anonymisieren kann. Bei Gesundheitsdaten dürfte da trotzdem für jeden ein eindeutiger Fußabdruck entstehen.
Klingt, als ob er einen Haufen Dummy Daten reingeben will.
Zum Training ist das Schrott und beschädigt das Model.
Für Ergebnisse ist es einfach sinnlos.
So habe ich es eben auch verstanden. Mir ist der Sinn dahinter nicht so ganz klar… Aber wäre ja auch komisch, wenn ein journalistischer Artikel mal tiefer auf solche Dinge eingehen würde.
So wie ich das verstanden habe (aber natürlich keinerlei Garantie dass das wirklich so gemeint war, insgesamt halt ein bisschen ein Schrottartikel) ist, wie auch andere hier schon vermutet haben, dass es nicht um‘s Training geht sondern einen Testbetrieb. Haufenweise Fake-Daten rein und dann schauen ob die nicht ungewollt an anderer Stelle sichtbar werden.
deleted by creator
Wer eine KI „durchspült“ trinkt auch energetisiertes Wasser um seinen Körper zu „entschlacken“.
Am besten irgendwie noch mit Blockchain, Cloud und IoT kombinieren, dann wird alles supi-dupi-digital! /s
Wie wenig Ahnung kann man von einem Thema haben… Kann man diese Leute nicht etwas briefen bevor sie in die Kamera so einen Quatsch blubbern.
Naja wenn die Verschlüsselung wirklich sicher ist (heißt ohne backdoor) wäre das ja ein Schritt vorwärts im Vergleich zu dem was die EU da gerade abzieht
Da sich hier ja alle einig sind dass der Lauterbach keine Ahnung hat, kann mir mal einer erklären was an den Aussagen so lächerlich ist?
kann mir mal einer erklären was an den Aussagen so lächerlich ist?
Das könnte ich dir vielleicht beantworten, wenn ich denn mal wüsste, was genau er denn damit meinte. Das ist eben auch einer meiner größten Kritikpunkte an ihm. Er kann seine Anliegen und Vorhaben einfach nur unterirdisch schlecht kommunizieren.
Das könnte ich dir vielleicht beantworten, wenn ich denn mal wüsste, was genau er denn damit meinte.
Mit welcher Aussage denn?
Was meint er damit, die KI “durchzuspülen”? Wie sieht das in der Praxis aus und wie wird die Sicherheit der Daten damit sichergestellt? Diese schwammigen Aussagen sind ein Grund für die Anführungszeichen im Artikel und auch warum man ihn damit mal wieder nicht so ganz ernst nehmen kann.
Das heißt doch einfach nur dass das ganze System mit synthetischen Daten geprüft wird um zu schauen ob an irgendeiner Stelle noch sensible, personenbezogene Daten auftauchen oder? Bei jeder Heizung gibts auch eine Dichtigkeitsprüfung um zu schauen ob es noch irgendwo im Kreislauf leckt. Für mich klingt das erstmal ziemlich sinnvoll und ich wüsste nicht was da schlecht kommuniziert ist.
Zumindest in meinem Feld und sicher auch in anderen Teilen der Wissenschaft sind solche Tests mit Synthetics absoluter Standard und fast ein Muss. Darum ja meine Frage was daran so falsch ist, bin halt kein Experte auf dem Gebiet.
Nur, dass es hierbei um KI geht. Das sind momentan bestimmte Datenmodelle, anhand derer das Programm lernt. Da jetzt gigabyteweise Daten “durchzuspülen” macht das Modell nur kaputt und hilft gar nichts.
Was will er? Ich habe nicht so wirklich verstanden, was er meint