Silicon Weekly
banner
cast.silicon-weekly.de.ap.brid.gy
Silicon Weekly
@cast.silicon-weekly.de.ap.brid.gy
Der wöchentliche Tech-News-Podcast

🌉 bridged from ⁂ https://silicon-weekly.de/, follow @ap.brid.gy to interact
Episode 75: Newsflash – Von Disney und OpenAI bis Satellitenkommunikation aus Köln
Wir schliessen das Jahr mit einer reinen News-Ausgabe. Darin geht es unter anderem um den Deal zwischen Disney und OpenAI, wir sprechen aber auch über den neuen Satelliten-Hub in Köln, warum McDonalds eine Werbung zurückgezogen hat und wie ein White Paper den Einsatz von KI bei gemeinwohlorientierte Organisationen behandelt. Wir wünschen euch schöne Feiertage, rutscht gut rein. Wir hören uns am 08.01.2026 wieder! Elli, Stella und Caspar **Links zur Episode** * Den KI-Werbespot von McDonalds findet ihr hier * Den KI-Spot von Coca Cola gibt es unter anderem auf YouTube * Und das White Paper gibt es hier ### Transkript der Episode _Das Transkript wird automatisch erstellt_ Jingles: Silicon Weekly, der Tech-Podcast mit den wichtigsten News der Woche. Für dich eingeordnet von Elli, Stella und Caspar. Stella: Willkommen zur letzten regulären Ausgabe in diesem Jahr, im Jahr 2025. Nächste Woche ist nämlich schon Weihnachten und wir werden eine Weihnachtspause und eine Neujahrspause machen. Dazu aber am Ende dieser Episode mehr. Jetzt legen wir erstmal los und wer sind eigentlich wir? Eben mir zugeschaltet, er hat schon genickt, ist Caspar. Caspar: Ja, hallo. Schönen guten Abend in die Runde. oder wann ihr auch uns hört, guten Morgen, Mahlzeit, was auch immer ihr macht, im Auto sitzen, auf dem Weg zur Familie, zu Weihnachten. Ich weiß es nicht. Schön, dass ihr eingeschaltet habt. Stella: Und auch mit dabei ist Elli. Und Elli, ich würde dich doch bitten, jetzt eine Begrüßung mit Dialekt. Caspar hatte schon ein bisschen Varianz. Caspar: Was? Stella: Da war Dialekt drin? Nein, du hattest nur Varianz in den Begriffen. Von Elli möchte jetzt was mit Dialekt, bitte. Elli: Ich finde es frech, dass ich hier in Norddeutschland immer gezwungen werde, meinen Dialekt irgendwann mal preiszugeben. Also, Servus. Wenn ihr das spart, wie in der Wuchherz, dann bin ich schon in Bayern und bin bei meiner Family und deswegen schön, dass ihr da seid. Caspar: Ja, grüß dich. Stella: Ich wollte dich nicht zwingen. Ich würde euch jetzt auch gerne mit Dialekt begrüßen, aber hallo, ich bin Stella. Hannover hat kein Dialekt. Hier wird angeblich sehr reines Hochdeutsch gesprochen und deswegen kann ich leider kein Dialekt. Aber wir sind kein Sprach- und auch kein Filmpodcast, wie wir eben im Vorgespräch festgestellt haben, sondern bei uns gibt es wöchentlich einen Einblick in die Tech-Welt, der vielleicht nicht immer erheiternd, aber immer informativ ist. Und außerdem haben wir immer eine gute Nachricht, auch heute dabei, damit ihr hier positiv aus dieser Folge rausgeht. Und was wir auch gerade haben, vielleicht habt ihr es schon gehört, den Adventskalender. Der hört ihr uns ja alle nochmal einzeln und der geht natürlich auch bis zum 24. Weiter. Und wie gesagt, die nächste reguläre Episode mit Tech News, mit Updates, mit WTF, mit Guter Nachricht, die gibt es am 8. Januar 2026. Wir machen auch ein bisschen Weihnachtsurlaub, essen Kekse. Caspar: Ihr schreibt uns doch mal, wenn ihr irgendwie, also ich weiß, was ich tun werde. Ich werde mich vor allem zum Beispiel aus dem Tech-News-Bereich komplett raushalten in der Zeit. Ich werde nichts mit KI machen und solche Dinge. Ihr könnt uns ja auch mal schreiben, ob ihr noch Bock auf Tech-Tab zwischen den Jahren. Vielleicht liegt ja was unterm Baum, kann ja passieren. Elli: Übrigens für alle, die so ein bisschen zwischen Raum und Zeit unterwegs sind, so wie ich. Wenn ihr das pünktlich am Erscheinungstag hört, dann seid ihr jetzt in Adventskalender Türchen Nummer 18. und ich glaube, ihr solltet, wenn ihr zum Beispiel Weihnachtspost verschicken wollt oder so, das in den nächsten Tagen machen, sonst kommt es nicht mehr an. Caspar: Service-Zeit mit Elli. Stella: Ich glaube sogar, dass der El gesagt hat, 15. Dezember ist eigentlich der Stichtag, damit es ganz locker vor dem Heiligabend, vor dem 24. ankommt. Caspar: Ich habe gestern Päckchen weggegeben, da war ich auch schon zu spät. Ich dachte, ich bin dieses Jahr mal früh dran. An der Stelle ein dickes Dankeschön an alle Paketboten und Paketbotinnen. Es ist keine einfache Zeit für euch. Elli: Richtig, auch alle an Bärbär, da fängt schon an. Auch an alle, die im Handel arbeiten oder so. Also ich habe eine Freundin, die im Buchhandel zum Beispiel arbeitet, die ist auch am Schwitzen jeden Tag aktuell. Aber wisst ihr, was heute verschickt und direkt bei euch ankommt? Caspar: Die Updates. Elli: Das Update-Päckchen, ja. Stella: Und das nehmen wir jetzt auch. Caspar: Dann lass mal quasi die Postboten klingeln und wir nehmen es entgegen. Das ist auch ein kleines Päckchen, weil es nur ein kleines Update gibt, aber es hat etwas mit der vergangenen Woche zu tun. Da hatten wir ja diese Paramount Netflix Warner Geschichte, nämlich dass Netflix Warner übernehmen möchte und dann Paramount auch gesagt hat, ich möchte da auch gerne zugreifen. Und dann hatten wir ja auch die Trump-Familie, Trumps Schwiegersohn erwähnt und wir hatten saudische Investoren erwähnt und solche Dinge. Jetzt gibt es gerade frisch am Mittwoch bis Redaktionsschluss eingetroffen Neuigkeiten, nämlich folgender Natur. Nur Jared Kushner, also der Schwiegersohn von US-Präsident Donald Trump, der hatte sich ja mit eingemischt, der hatte ja mit seiner eigenen Investmentfirma Affinity Partners, war ja einer dieser Geldgeber, die von Paramount kamen und für dieses Übernahmeangebot an Warner zuständig waren. Und Jared Kushner hat inzwischen angekündigt, dass er sich aus dieser Bieterschlacht rund um den Hollywood-Konzern zurückziehen möchte. Caspar: Und der zweite Teil dieses Mini-Updates ist, dass es für Netflix inzwischen auch schon wieder ganz gut aussieht. Wir hatten euch ja in der vergangenen Woche erzählt, dass es zwischenzeitlich für Netflix gar nicht unbedingt so gut aussah, weil das Angebot von Paramount höher war. Aber der Verwaltungsrat von Warner, der will wohl seinen AktionärInnen empfehlen, das Paramount-Angebot abzulehnen und stattdessen quasi das Netflix-Angebot anzunehmen. Das zumindest berichtet die Nachrichtenagentur Reuters und das Wall Street Journal. Das heißt, der Weg für den Netflix-Deal wäre dann frei. Ob das wirklich so passiert, wollte ich gerade sagen, sehen wir, wenn das Licht angeht, aber das stimmt nicht. Werden wir euch dann wahrscheinlich im neuen Jahr in den Updates auch nochmal davon berichten. Wir bleiben am Ball. Stella: Und das wird ja dann auch nicht von heute auf morgen passieren, sondern da gehört ja dann auch immer noch ein bisschen Prüfung dazu. Also das Thema wird uns bestimmt noch eine Weile begleiten. Wir machen jetzt einen ganz harten Themenschwenk. Gucken auf den Bereich Künstliche Intelligenz, auf eine bekannte Fastfood-Kette und auf das Thema Werbung. Ja, da kann ja eigentlich bei der Kombi nur ein WTF rauskommen. Elli: So hart ist der Themenschwenk aber gar nicht, denn wir bleiben beim Bewegtbild, zwar vom Streaming hin zur Werbung, aber wir sind noch im Videobereich unterwegs. Caspar: Ja, ich weiß nicht, wie es euch geht. Erstmal primär euch beiden hier mit mir in den Mikros, aber auch unseren Zuhörerinnen und Zuhörern. In letzter Zeit begegnen mir, wenn ich zum Beispiel das lineare Fernsehen mal anhabe und Werbung sehe oder wenn ich zum Beispiel bei YouTube Werbung sehe, die mir eingespielt wird, immer häufiger KI-Spots. Ich weiß nicht, Stella, wie ist es bei dir? Sind dir die auch schon begegnet? Und wie findest du die? Ich fand die oft ein bisschen seltsam. Stella: Ich sehe sie weniger im TV und mehr bei Social Media. Und da muss ich sagen, ich bin da bei dir seltsam. Ich finde sie unrealistisch. Ich finde sie teilweise auch schlecht gemacht. Sie erinnern eher so an Zeichentrickfilme, wo alles so ganz runde Ecken hat. Aber das ist sie auch total subjektiv. Mich persönlich hat bis jetzt noch nichts überzeugt. Ich sehe es auch einfach kritisch, weil da eine ganze Industrie dran hängt. SchauspielerInnen, eher Leihendarsteller in der Regel. All sowas. Deswegen, ja. Also ich habe ja noch nicht den Fall gefunden, wo ich denke, wow, KI-generierte Werbespots machen irgendwas auf dieser Welt sehr, sehr viel besser. Elli, wie ist es bei dir? Elli: Ja, ich finde bisher, also du hattest das schon so ein bisschen angesprochen, das, was ich bisher gesehen habe. Ich habe noch nicht viel gesehen, muss ich auch sagen. Ich habe eher so Plakate und sowas gesehen, wo man schon gemerkt hat, okay, das ist mit KI. Das hatten wir auch neulich jemals. Aber das, was so an KI-generierter Werbung ist, ist auch ein bisschen überzogen teilweise, finde ich so. Also das wird schon als, vielleicht ist das auch gewolltes Stilmittel, dass wenn man schon was mit KI generiert, dass es dann halt so ein bisschen wilder wird. Ja, weiß ich nicht. Weiß ich nicht. Stella: Aber Caspar, erstens möchte ich wissen, worum dieses WTF geht gut. Ich weiß es, aber die Zuhörer, die wollen es wissen und ich will wissen, wie deine Meinung dazu ist. Caspar: Ja, ich finde, dass die zu, also KI kann durchaus gewinnbringend auch eingesetzt werden. Wir werden am Ende dieses WTFs noch auf einen kleinen Werbespot kommen, wo das meiner Meinung nach einigermaßen gut gelungen ist, weil da auch, glaube ich, sehr viel Zeit investiert wurde, um das dann richtig zu prompten und auch vom Stil her ist das so ein bisschen animationsmäßig. Ich finde aber ganz oft sieht man einfach, da fehlt dann doch irgendwie ein Bein oder Dinge verschwinden oder irgendwas ist ganz komisch. Also das, was man auch bei diesen typischen KI-Videos sieht und man merkt dann ganz oft, dass die Firmen das wahrscheinlich aktuell nur machen, weil sie damit günstiger wegkommen oder vermeintlich günstiger wegkommen und das geht nicht. Manchmal ein bisschen nach hinten los und damit kommen wir auch zum Thema des WTFs, weil das nämlich McDonald's so ein bisschen so gegangen ist. Elli: Yes, und zwar in den Niederlanden. McDonald's Niederlande hat am 6. Dezember einen Weihnachtswerbespot veröffentlicht auf YouTube. Man kennt, seit Jahren macht McDonald's immer so Weihnachtswerbespots und diesmal sind es rund 45 Sekunden geworden, mithilfe von künstlicher Intelligenz erstellt und da geht es um, Zitat, die schrecklichste Zeit des Jahres, nämlich die Weihnachtszeit. Weihnachtszeit. Warum ist es die schrecklichste Zeit des Jahres? Caspar: Naja, dieser Werbefilm zeigt so ein bisschen überspitzt verschiedene Missgeschicke, die in der Weihnachtszeit passieren können. Zum Beispiel ein eingepackter Weihnachtsbaum, es gibt ja diese Netze, wo dieser Weihnachtsbaum nach Hause kommt und dann schneidet den ja immer auf und der platzt quasi so raus und der fliegt aus dem Fenster, weil er ihn da rausgeschleudert hat. Stella: Der Aufstellende fliegt aus dem Fenster. Caspar: Nicht der Baum. Genau, der Aufstellende, nicht der Baum fliegt raus, genau. Und das ist halt alles komplett KI generiert und das sieht man in diesem Werbespot auch an ganz vielen Stellen und Ecken, weil du einfach merkst, es passt irgendwie nicht zusammen und es hat auch diesen typischen KI-Look, den man immer mal wieder hat. Und die Idee dieses Werbefilms ist, wir haben halt ganz schreckliche Weihnachtsszenen und kommen zu uns nach McDonalds, dort ist es ruhig, da ist alles schön, auch an Weihnachten, hier kannst du deine Ruhe haben, so nach dem Motto. Das ist die Grundidee von diesem Spot gewesen. Elli: Ich habe mir in dem Fall die Spots noch nicht angeguckt, Kastor, weil ich das hier nochmal fragen wollte, stellvertretend für unser Publikum, sind die Szenen im McDonalds-Restaurant auch KI generiert oder sind die echt? Caspar: Komplett. Nein, auch der komplette Spot ist KI generiert. Elli: Sonst könnte man ja sagen, das wäre eine spannende Mischung oder so. Caspar: Ja, dann hätte man fast sagen können, KI war ein Stilmittel, in dem Fall nicht. Elli: Okay, gut. Schade. Stella: Ja, vielleicht, um da eine Übersicht zu geben, ich finde, dieser Werbespot ist auch nicht unbedingt so ein bisschen mit so einem Augenschmunzeln von dem Humor her, sondern, wie gesagt, jemand fliegt beim Aufstellen des Weihnachtsbombs aus dem Fenster, also so richtig durch die Scheibe durch, hat so ein bisschen Actionfilm-Vibes, ehrlich gesagt. Und was mir hängen geblieben ist, eine Dame steigt mit Paketen aus der U-Bahn aus oder aus der Straßenbahn und bleibt in der Tür hängen und wird dann quasi mitgezogen. Caspar: Also, KI ist vielleicht gar nicht das Hauptproblem dieses Spots. Stella: Also, wenn ihr vielleicht diesen Spot sehen wollt, es gibt ihn nicht mehr in der Originalquelle, denn McDonalds hat nach Kritik den eben offline genommen, aber... Caspar hat eine Quelle gefunden und wir packen sie euch in die Show Notes. Caspar: Genau, da könnt ihr euch angucken. Du hast schon Kritik erwähnt und McDonalds hat den Spot zurückgezogen, weil tatsächlich viele ZuschauerInnen dieses Spots gesagt haben, der ist zum einen zynisch und respektlos gegenüber Weihnachten. Weihnachten soll ja die schönste Zeit des Jahres sein. Ich finde durchaus, das ist oft nicht der Fall. Wir denken nur mal an Onkel Herbert bei der Weihnachtsfeier mit seinen rassistischen Sprüchen und Co. Aber das, was McDonalds gemacht hat, war halt auch komplett drüber. Wir haben ja gerade schon ein paar Szenen erwähnt, deswegen kann ich die Kritik durchaus auch verstehen. Und was zusätzlich noch für Ärger gesorgt hat, ist eben der Einsatz von KI und dieser dann doch sehr generisch KI-lookige Einsatz. Elli: Ja, dazu schlechter Schnitt. Die Figuren sind irgendwie gruselig und da ist natürlich auch im Hinterkopf so, du hast vorhin schon über SchauspielerInnen gesprochen, Stella, auch das ist so ein Kritikpunkt. Jetzt gibt es aber natürlich das Produktionsunternehmen dahinter und die verteidigen sich erstmal. Die heißen übrigens The Sweetshop. Mein Gehirn hat automatisch an The Sweetshop gedacht. Ich weiß nicht, wo das herkommt. Stella: Das war bei mir auch so tatsächlich. Elli: Ja, und die sagen, naja, wir haben sieben Wochen lang produziert und wir haben da echt viele Leute dran gesetzt. Es ist jetzt nicht irgendwie nur so ein billiges KI hingeklatscht, sondern eine reguläre Filmproduktion, sagt The Sweet Shop. Caspar: Ich muss auch sagen, wahrscheinlich stimmt das sogar mit siebenwöchiger Produktionszeit, weil man stellt sich das immer so vor, man promptet irgendwas und dann setzt die KI das um. Das ist bei Bild-KIs häufig tatsächlich inzwischen so, dass man die sehr detailliert anweisen kann. Bei Bild-KIs ist es immer noch so, dass ganz viel zufällig passiert und man irgendwas ganz genau promptet und plötzlich fliegt dann doch mal Kopf weg oder so. Oder Tische lösen sich auf oder was auch immer. Erleben wir auch immer wieder, wenn wir damit experimentieren. Deswegen, ich glaube das schon, dass das so viel Produktionszeit war. Nichtsdestotrotz ist das Ergebnis sehr KI-generisch und man kann es durchaus kritisieren. Elli: Dann gibt es natürlich noch neben der Produktionsfirma die Seite von McDonald's. Und McDonald's hat sich gegenüber BBC News geäußert. Da heißt es, der Spot soll die stressigen Momente der Weihnachtszeit widerspiegeln. Okay, haben wir mitbekommen. Und McDonalds räumt dann aber auch ein, dass Weihnachten für viele Menschen die, Zitat, schönste Zeit des Jahres sei. Man hat den Spot jetzt zurückgezogen, weil man eine Fehleinschätzung getroffen habe mit diesem, okay, schrecklichste Zeit, schönste Zeit, wie kommt das an und so weiter. Deswegen hat man den jetzt wieder runtergenommen. Stella: McDonalds hat das Ganze jetzt aber tatsächlich so verpackt, dass sie es quasi als Lernerfolg auch für sich sehen. Einfach im Umgang mit künstlicher Intelligenz. Caspar: Ja, zum Abschluss, ich hatte es euch schon angeteasert, haben wir noch einen zweiten Link in den Shownotes zu einem zweiten KI-Werbespot und auch da passt, dass sie etwas zum Lernen sich genommen haben, denn Coca-Cola zeigt bereits zum zweiten Jahr den Weihnachts-Lkw-Spot, den kennt ihr seit vielen Jahren, glaube ich, das sind diese berühmten Trucks, die durch eine Winterlandschaft fahren, die macht McDonalds jedes Jahr eine neue Version von und seit zwei Jahren ist der auch KI generiert. Im vergangenen Jahr gab es da auch Coca-Cola, völlig richtig. Elli: Gut, ich weiß nicht, McDonalds hat ja auch irgendwann mal Trucks. Caspar: Ja, auch McDonalds verkauft auch Coca-Cola. Elli: Stimmt, ja, also Weihnachtstrucks von Coca-Cola. Caspar: Genau, diesen Spot, den kennen alle wahrscheinlich von euch. Und der ist seit zwei Jahren KI generiert. Und im ersten Jahr war es zum Beispiel so, dass die LKW-Reifen sich nicht gedreht haben, als der LKW über die Straße fuhr und solche Dinge. Also auch ganz klar so typische KI-Fehler. Das hat Coca-Cola im vergangenen Jahr auch schon sehr viel Kritik eingefangen, haben sie sich dadurch. Diesem Jahr haben sie angegeben, dass sie auf diese Kritik reagiert haben und sehr viel mehr Zeit investiert haben in den Spot. Und jetzt zum Beispiel sich die LKW-Reifen auch drehen. Ich habe das überprüft, das stimmt. Und lustigerweise ist dieser Spot am Ende unter dem Slogan Real Magic. Und das ist schon fast ein bisschen ironisch, dass das dann ein KI-Ware-Spot ist. Ja, aber guckt ihn euch mal an in den Shownotes. Ich finde den etwas besseren, gelungeneren Spot als die McDonalds-Werbung. Stella: Welchen Vorteil jetzt dieser KI-generierte Spot hat gegenüber einem echten, mit Menschen, mit echten Emotionen, das hat sich mir bisher noch nicht erschlossen. Und auch diese extrem rund gezeichneten Eisbären und ich glaube, was war es noch? Waschbären? Also viele winterlich niedrige Tiere, die da zu sehen waren. Caspar, man kriegt mich damit einfach nicht bisher. Ich weiß nicht, wie es bei LE ist. Caspar: Elli, hast du dir den Spot angeguckt? Elli: Nee, tatsächlich auch noch nicht. Ich bin gar nicht im Weihnachtswerbungsgame drin dieses Jahr und ich bin damit auch vollkommen okay. Stella: Aber wisst ihr was? Wir bleiben jetzt im KI-Game. Ich habe vorhin gesagt, es gibt einen Input und es tut mir leid. Ich habe euch was versprochen, was wir nicht halten. Es gibt einen Newsflash. Wir haben drei flotte Nachrichten mitgebracht. Und wir schauen rüber nach New York und wir bleiben beim Thema KI-Werbung für die erste Nachricht. Genau, wie angekündigt, es geht nach New York. Dort gibt es nämlich ein neues Gesetz. Und ich glaube, für diejenigen, die mit KI-generierter Werbung arbeiten, ist es ein Ärgernis. Aber worum geht es denn da genau? Elli: Naja, also weiß ich nicht, ob man das als... Ich habe keinen gefragt, der darin arbeitet. Aber also, die Idee ist, dass wenn in Werbespots KI-generierte Menschen sogenannte Synthetic Performers zu sehen sind, statt echter Schauspielerin, dann muss das gekennzeichnet werden. Und wenn Werbetreibende das nicht machen, dann wird beim ersten Verstoß werden 1000 Dollar strafefällig und bei jedem weiteren 5000 Dollar. Das Ganze geht so ein bisschen zurück auf große Proteste, die es ja seit einiger Zeit gibt und gab in der Filmindustrie, in der Schauspielindustrie und so weiter. Und die Stadt New York hat damit so ein bisschen drauf reagiert und gesagt, hey, wenn ihr keine echten SchauspielerInnen benutzt, dann kennzeichnet das ein bisschen. Das ist so der eine Aspekt. Der zweite Aspekt ist natürlich so ein Verbrauchergedanke. Wir wollen, dass unsere VerbraucherInnen auch wissen, wenn das keine realen Personen sind, die da dargestellt werden oder die da zu sehen sind. Diese beiden Ideen haben dazu geführt, dass man sich jetzt eben eine Regelung ausgedacht hat und verabschiedet hat und New York ist damit der erste US-Bundesstaat, der diese Regel einführt. Stella: Gucken wir nochmal drauf, was ist eigentlich jetzt mit dem Thema, wie lange diese Regelung geltend wird. Es gibt ja jetzt die nur in New York. Wie sieht es denn da sonst noch so aus? Caspar: Naja, wir haben ja noch die Bundespolitik in den USA und der US-Präsident hat erst letzte Woche ein Gesetz unterzeichnet, dass er nicht mehr möchte, dass Einzelstaaten, also zum Beispiel der Bundesstaat New York, KI-Unternehmen regulieren können, sondern es soll quasi eine Bundesgesetzgebung nur noch stattfinden bei KI-Unternehmen. Man ahnt vielleicht, wo das herkommt von seinen Freunden aus dem Silicon Valley, die ihm das so ein bisschen zugeflüstert haben. Er ist ja eh ein großer KI-Freund. Aber das würde natürlich heißen, dass das Gesetz von New York dann quasi in dem Fall nicht mehr gültig wäre. Aber das muss man im Zweifel dann vor Gericht klären, wie so oft in den aktuellen Tagen, was die US-Politik betrifft. Elli: Genau, also es ist tatsächlich Einschätzung zufolge ziemlich wahrscheinlich, dass dieses Gesetz, was Trump da jetzt sich überlegt hat, nochmal vor Gericht kommen wird. und auch dort auf seine Hieb- und Stichfestigkeit quasi erstmal überprüft werden muss. Aber man sieht eine sehr deutliche Signalwirkung von Donald Trump. Diese Unterschrift seinerseits kam so ein paar Tage nachdem das in New York passiert ist und wir hatten ja hier auch immer wieder schon so einzelne Berichte über verschiedene Gesetzgebungen in US-Staaten. Und jetzt kann man natürlich sagen, natürlich ist es unpraktisch, wenn einzelne Staaten da die Gesetze machen und es für Unternehmen überall so ein bisschen anders ist. Gleichzeitig ist halt die Frage... Könnte ja dann auch vielleicht Sinn machen, die Gesetze auf nationaler Ebene umzusetzen, statt sie auf nationaler Ebene zu kippen. Aber wir bleiben mal gespannt. Stella: Genau. Und ihr hört es dann natürlich bei uns in den Updates. Aber jetzt machen wir erstmal einen kurzen Exkurs, weil wir wollen euch natürlich auch hier im Podcast immer zeigen, wie hängen solche Nachrichten eigentlich mit uns so zusammen. Das heißt, wie sieht es denn eigentlich hier bei uns in Europa mit der Kennzeichnungspflicht aus? Elli: Aktuell ist da noch keine Kennzeichnungspflicht. Tatsächlich gibt es aber, wir haben schon viel drüber geredet, ja, den EU-AI-Act, also die KI-Verordnung der EU. Und zum August nächsten Jahres, also ich könnte schon ein bisschen so einen Blick in die Zukunft werfen jetzt, zum August nächsten Jahres wird die Kennzeichnung dadurch Pflicht. Gekennzeichnet werden sollen, Zitat, Bild, Ton oder Videoinhalte, die ein sogenannter Deepfake sind und Texte, die veröffentlicht werden, um die Öffentlichkeit über Angelegenheiten von öffentlichem Interesse zu informieren. Also es muss nicht alles komplett gekennzeichnet werden, aber es gab tatsächlich auch, du hast es schon gesagt, sehr dehnbar. Es gab tatsächlich auch im Vorfeld jetzt schon Kritik von der Bundesrechtsanwaltskammer, weil die gesagt haben, naja, die Pflicht an sich sehen wir jetzt gar nicht so kritisch, aber das ist halt alles irgendwie ein bisschen fischiwaschi und dann steht am Ende überall KI-Einsatz dran und niemand weiß mehr so richtig, was genau, wie, wo jetzt da mit KI gemacht wurde. Caspar: Ja, es gibt tatsächlich auch Studien, die belegen, dass zu viel Kennzeichnung auch gar nicht gut ist. Also ich finde diese EU-AI-Act-Variante, dass man Deepfakes, also Deepfakes wäre ja, eine Person wird zum Beispiel dargestellt und ist es in Wirklichkeit gar nicht. Also wenn man mich jetzt klont und mich irgendwie sagen lässt, dass ich für Kryptowährung wäre, was ja durchaus gerne mal mit Personen im öffentlichen Leben ja in letzter Zeit auch häufiger passiert ist, das wäre ein klassischer Deepfake, das müsste man kennzeichnen laut EU-Eck, das finde ich auch sinnvoll, aber wenn man jetzt zum Beispiel anfängt alles an Bild, Ton und Video anhalten, wo KI irgendwie mit zu tun hat, anfängt zu kennzeichnen, dann hat das sogar einen negativen Effekt im Sinne von, dass die Zuschauerinnen und Zuschauer, Zuhörerinnen und Zuhörer das Vertrauen komplett verlieren und das kann auch nicht so richtig die Lösung sein. Da müsste man, und da gebe ich der Bundesrechtsanwaltskammer ein bisschen recht, müsste man ein bisschen ausdifferenzieren. Schwieriges Wort um die Uhrzeit. Elli: Ich musste da so ein bisschen an die, kennt ihr das auf so Essensverpackungen? Da steht eigentlich immer ganz, ganz klein irgendwo, dass das ein Serviervorschlag ist, was man da sieht. Aber wer von uns hat dieses Serviervorschlag, diesen Serviervorschlaghinweis jemals so richtig wahrgenommen? Natürlich wissen wir bei Essensverpackungen, okay, das sieht alles meistens schöner aus, als es in Wirklichkeit ist. Aber ja, auch da so ein bisschen, man kann das jetzt nicht direkt auf diese KI-Kennzeichnung minzen, aber man sieht schon, wo vielleicht die Problematik liegen könnte. Stella: Okay, wir sind leider auch kein Koch-Podcast beziehungsweise kein Foodcast. Das ist auch sehr schade. Vielleicht kommt das eines Tages noch. Elli: Darf ich an der Stelle einen ganz kleinen Funfact einschieben? Caspar: Ach so, ich dachte, den Serviervorschlag. Elli: Ja, zum Serviervorschlag. tatsächlich, in Japan ist es nämlich so, wenn ihr Süßigkeiten, Snacks oder sowas kauft und die sind auf der Packung abgebildet, dann müssen die auch in echt so groß sein wie auf der Abbildung. Ganz kleiner Fakt am Rande. So viel zum Serviervorschlag. Caspar: Liebe EU-Regulierung, hört ihr zu, das wäre doch mal was, was ihr einführen könnt, liebe EU. Stella: Gott, nicht, dass wir jetzt hier plötzlich Forderungen formulieren, aber es ist doch glaube ich auch so, wenn zum Beispiel Obst abgebildet ist auf dem Saft, dann muss das auch drin sein. Also da darfst du nicht quasi den Multivitaminsaft munter bewerben und dann ist es nicht drin. Elli: Es kommt tatsächlich auf die Darstellung des Obstes an, also auf aufgeschnittenes Obst oder halb aufgeschnittenes Obst und so weiter. Also aber ja, deswegen. Caspar: Bevor wir jetzt noch über die Nutri-Score was erzählen. Stella: Wir gucken uns auf jeden Fall an, wie sich das Ganze weiterentwickelt, sowohl in den USA als auch in der EU, gerade ab oder auch im Vorfeld vom August 2026. Und wir bleiben eigentlich schon beim Oberthema Künstliche Intelligenz, aber jetzt aus einer anderen Perspektive. Wir haben ja eingangs heute gesagt, wir sind leider kein Filmpodcast, aber wir gehen jetzt so ganz leicht in die Richtung. Es geht um den Disney-Konzern und es geht um OpenAI. Und wie passen die beiden denn nun zusammen? Caspar: Ja, die haben eine Kooperation vereinbart. Und zwar ist es so, dass NutzerInnen der Sora Video App, das ist ja, Sora ist ja die Video-KI von OpenAI, die NutzerInnen davon können künftig, wann genau, stand glaube ich nicht drin. Wir haben es auch schon ausprobiert, bei uns hat es noch nicht funktioniert. Aber die werden in Zukunft KI-generierte Videos erstellen können und zwar mit Disney, Marvel und Pixar-Figuren. Die gehören ja inzwischen alle zum Disney-Konzern und zu den Figuren, die man dann benutzen kann, sind unter anderem zum Beispiel Mickey Mouse, Darth Vader oder auch Elsa aus Die Eiskönigin oder auch Iron Man von Marvel. Und ihr könnt dann in Zukunft, wie gesagt, mit diesen Figuren KI-generierte Videos machen, euch selber auch mit rein projizieren und so. Das war bisher aus Urheberrechtsgründen offiziell nicht erlaubt und viele dieser KIs haben das auch nicht gemacht, weil zum Beispiel der Disney-Konzern bei Urheberrechtsverletzungen auch immer sehr scharf war und ist und dann auch sehr schnell geklagt hat, wenn so eine KI das konnte. Und das ist jetzt natürlich dann eine Neuheit, dass die sich zusammentun. Elli: Ja, und wie löst man so einen Urheberrechtsstreit aktuell in der KI-Welt richtig, indem man Geld von A nach B schiebt? Und tatsächlich hat Disney im Rahmen des Deals eine Milliarde US-Dollar in OpenAI investiert und hat sich außerdem die Option auf weitere Unternehmensanteile an OpenAI gesichert. Also Disney hängt da jetzt irgendwie mit drin und deswegen darf OpenAI dann Disney quasi die Abbildungen benutzen. Stella: Das ist auch keine Einbahnstraße, sondern es soll dann auch so sein, dass diese eben mit Zora, also von OpenAI erstellten Videos, auch über den Streamingdienst Disney Plus verfügbar sein sollen. Caspar: Da bin ich sehr gespannt drauf. Das klingt nach Fiebertraum, aber wir werden gucken, wie das dann aussieht. Offiziell ist Zora 2 ja auch noch nicht in Deutschland oder in Europa verfügbar. Wir haben das über VPN ausprobiert, aber da bin ich sehr gespannt, wie das dann aussieht. Stella: Vielleicht wird das auch so ein Marketing-Community-Ding. Ich erfrommte dir jetzt deine eigene Disney-Serie und auf einmal müssen wir uns gegenseitig folgen. Gut, ich möchte jetzt nicht in die Dystopie abrutschen. Es tut mir leid. Caspar: Unwahrscheinlich ist das nicht. Elli: Und es gab noch einen Teil von dem Deal, den würde ich hier auch noch ganz kurz mit reinbringen. Und zwar, den kennen wir auch schon von einigen ähnlichen Deals. Disney wird nämlich selber auch Kunde von OpenAI. Also die besitzen nicht nur Anteile an OpenAI, sondern die sind auch Eigenkunde von der Firma, wo sie, naja, ihr wisst schon. Caspar: Eine Hand ist die andere. Elli: Genau, Disney Plus wird jetzt mit KI-Software von OpenAI versorgt. Also wisst ihr Bescheid. Der Disney-Chef Bob Eiger hat die Zusammenarbeit übrigens als wichtigen Moment für die Entertainment-Branche bezeichnet. Caspar: Ja, es handelt sich auch laut Disney um den ersten Deal dieser Art zwischen großen Hollywood-Konzernen wie Disney und OpenAI. Tatsächlich ist das auch so und man muss auch sagen, dass das jetzt im Musikbereich schon passiert in vielen Bereichen. Wir haben euch, glaube ich, auch schon darüber erzählt, dass zum Beispiel die Anbieter, ich muss jetzt nicht auf einzelne eingehen, sich mit den Plattenfirmen gerade einigen, um eben lizenzrechtlich keine Probleme mehr zu haben. Und wir sehen, dass das mit Disney und OpenAI jetzt auch im generativen Videobereich passiert. Das heißt, man wird dann in Zukunft zumindest in den großen Konzernen in dem Bereich keine Urheberrechtsverletzungsprobleme mehr haben, wenn die alle miteinander dealen. Ja, das kann man als Vorteil sehen. Kann man aber auch nicht. Muss man auch nicht. Elli: Caspar, ich bin jetzt übrigens verwirrt. Du hast gesagt, wir haben es ausprobiert und es hat nicht geklappt, aber du hast uns in unseren, Chat, den wir haben für diesen Podcast, hast du uns schon Bilder geschickt mit verschiedensten Disney-ähnlichen Abbildungen. Was ist da los? Caspar: Ich habe uns quasi einmal zum nächsten Eisprinzessinnen-Film-Cover generiert. Ich habe tatsächlich Star Wars, das Franchise, Pixar, der nächste Pixar-Film kommt von uns. Tatsächlich ist es so, dass die Video-KI bei uns noch nicht funktioniert hat, aber OpenAI's Bildgenerierung, die auch relativ neu jetzt, ich glaube gestern oder so in einer neuen Version rausgekommen ist, da konnte ich problemlos Disney-Inhalte generieren. Die haben auch das Logo kopiert. Ich glaube, das war vor ein paar Wochen noch nicht möglich. Es kann sein, dass das damit zusammenhängt. Mal schauen, vielleicht ist die Kapitelmarke auch eines dieser Cover, die wir für diese fiktiven Kinofilme gemacht haben. Elli: Und das hast du über ChatGPT gemacht, ne? Caspar: Genau, ChatGPT und die Image Generation, die dort integriert ist. Stella: Wir machen jetzt einen Schwenk. Wir verlassen den Planeten Erde. Caspar: Vom Weltraum gehen wir zurück in die EU, gehen nach Deutschland und wenn wir ganz genau sein wollen, gehen wir nach Köln und wenn wir richtig genau sein wollen, gehen wir nach Köln-Ports. Was, liebe Elli, hat Köln-Ports mit Weltraum zu tun? Elli: Naja, die Leute, die aufmerksam zugehört haben vor einigen Wochen, wissen schon, in Köln, da hat es die Raumfahrt. Da wird hier ins Weltall geschaut. Und da geht es auch jetzt drum. Caspar: Genau, in Köln-Portz entsteht nämlich auf dem Gelände des Deutschen Zentrums für Luft- und Raumfahrt. Die haben dort nämlich auch einen Campus, sie haben unter anderem auch in Bremen einen, aber eben wie gesagt auch in Köln-Portz. Und dort entsteht ein sogenannter Hub und zwar für sichere behördliche Satellitenkommunikation in ganz Europa. Klingt unglaublich sexy. Elli: Ja, und wer sich jetzt bei Hub fragt, was zum Henker soll ein Hub sein? Ich glaube, im Deutschen würde man dazu sagen, ein Verbund. Caspar: Ja, oder so eine Hauptzentrale, ein Zentrum, so in die Richtung. Also das ist das Hauptquartier quasi von dieser zukünftigen behördlichen Satellitenkommunikation. Los geht das Projekt erstmal mit sehr viel Papier, wie das so üblich ist, nämlich mit der Unterzeichnung einer Verwaltungsvereinbarung zwischen dem Bundesministerium für Forschung, Technologie und Raumfahrt und dem Land Nordrhein-Westfalen. Die schmeißen beide ein bisschen Geld in das Projekt. Nordrhein-Westfalen investiert 50 Millionen Euro in den Aufbau von Infrastruktur und weitere Bundesmittel sollen dann noch folgen. Und das Ganze dreht sich um den sogenannten GovSat.com Hub. Auch wieder unglaublich tolle Formulierung. GovSat.com ist eine Abkürzung und steht für, alle festhalten, Governmental Satellite Communications. Also es ist ein, oh jetzt haben wir die perfekte deutsche Übersetzung für HUB-Koordinierungszentrum oder Koordinationszentrum für Satellitendienstleistung. Allerdings geht es um staatliche Satellitenkommunikation, also es geht nicht um das, was wir drei dann irgendwann mal vielleicht benutzen können, sondern geht es wirklich um Behörden, um Einsatzkräfte, um diplomatische Vertretungen, die das im Fall der Fälle quasi nutzen können sollen. Elli: Das hast du schon gesagt, das ist nichts, was wir benutzen können. Aber wenn man jetzt eben von Einsatzkräften und so weiter spricht, dann ist es ja schon was, was uns im Zweifel zugute kommen könnte. Wenn eben Netze bei Naturkatastrophen in Krisengebieten oder durch gezielte Störungen, auch das kann ja sein, ausfallen. Caspar: Genau, also Handynetze, Festnetz, Internet, darum geht es. Elli: Leitungen alle tot und dann Satelliten kommunizieren. Dann wäre es gut. Caspar: Wenn man Satelliten stattdessen hätte. Stella: Genau, aber was ist das Ziel, was Elli gerade angerissen? Elli: Ja, die europäische Souveränität und die Krisenfestigkeit der Kommunikation im Weltraum sollen gestärkt werden. Und das ist, wenn man sich mal so im Weltall umguckt und die anderen Weltraumnationen sich so ein bisschen anguckt, also die USA, Russland, China und so weiter und deren aktuelle diplomatische Beziehungen zu Europa, Aber ist das sicher keine schlechte Idee, wenn man da mal ein bisschen auf die eigene Souveränität guckt. Caspar: Keine schlechte Idee. Der Standort in Köln-Ports ist eng mit anderen EU-Raumfahrtprogrammen verknüpft. Insbesondere, wir haben es gerade schon erwähnt, mit GovSat.com, aber auch mit dem Satellitenprogramm Iris 2 oder Iris 2. Das wiederum ist dann für uns ein bisschen spannender, weil das sieht den Aufbau von mehreren hundert Satelliten vor, die dann eine sichere und flächendeckte Breitbandversorgung in Europa garantieren soll. Das ist quasi die europäische Version von Starlink. Starlink ist ja das Satellitenkommunikationsnetz rund um Elon Musk. Da kann man sich dann auch fragen, ob das so sinnvoll ist, dass das in Europa genutzt werden können sollte noch in Zukunft. Und Iris 2 soll halt eben eine Alternative sein und ist eben auch für Privatkunden gedacht. Und deswegen sagte ich, das ist auch etwas, was für uns interessant sein könnte. Das ist allerdings noch in Entstehung. Elli: Wer einen kleinen Ohrwurm möchte, ich musste bei Iris gerade an Iris von den Gugudolls denken. Viel Spaß damit. Caspar: Ja, vielen Dank. Das Iris2-Programm gilt als eines der wichtigsten Raumfahrtprojekte in der EU. Wenn man sich das anguckt, warum, versteht man es auch. Und wie gesagt, es soll eben eine Alternative werden, die unabhängig ist von den anderen Raumfahrtsnationen. Wir haben es gerade schon gehört. Und dieser Kölner Hub fungiert halt eben nicht nur für diese GovSat.com-Geschichte, sondern eben auch dafür als Schnittstelle zwischen EndnutzerInnen und der Weltrauminfrastruktur. Und natürlich erhofft man sich auch noch ein bisschen was davon, weil wirtschaftlich soll das Ganze natürlich die regionale Luft- und Raumfahrt stärken in Deutschland. Und es ist natürlich auch ein Wirtschaftsfaktor, den man nicht vergessen darf. Da entstehen dann durchaus hochqualifizierte Jobs und Arbeitsplätze, die man irgendwie dann besetzen muss. Elli: Jetzt sind wir schon fast durch mit dem Thema, aber eine Abkürzung, eine haben wir noch und zwar Euro QCI. Was steht denn dahinter bitte? Caspar: Jetzt kommt nochmal ein ganz tolles deutsches Wort. Das ist der satellitengestützte Quantenkommunikationsdienst, der ebenfalls noch entstehen soll. Quantencomputing, da haben wir hier schon mal drüber gesprochen, das hat ein bisschen was damit zu tun. Euro QCI ist im Grunde der Plan der EU für ein extrem sicheres Kommunikationsnetz, was auf Quantenphysik aufbaut. Wir können jetzt nicht zu tief ins technische Detail gehen, aber das Spannende daran ist, dass das so gut wie, also nicht 100% abhörsicher, aber sehr viel schwerer abzuhören ist und auch vor allem von Quantencomputern, wenn sie denn dann mal marktreif sind, auch nicht geknackt werden kann, weil es selber auf Quantenphysik setzt. Und das will man natürlich auch wieder für staatliche Stellen haben, damit man eben nicht von Freunden abgehört werden kann. Elli: Ja, und falls ihr euch erinnert, wir hatten das tatsächlich auch, glaube ich, vor ein paar Monaten schon hier im WTF, meine ich, oder es war eine News, wo wir mal darüber gesprochen haben, wie unsicher eigentlich Satellitenkommunikation teilweise ist. Gerade auch von staatlichen Stellen und von Behörden und von Militär und so. Da gab es ja mal eine Forschung dazu, wie viel er eigentlich unverschlüsselt so durch Zeit und Raum geistert. Caspar: Ja, und wir hatten eine Episode zur Infrastruktur und wie anfällig die auch ist. Stichwort Unterseekabel, Internetknotenpunkte und das zum Beispiel russische Sabotage ganz gezielt ja auch diese Punkte ansteuert. Und da wäre ein Satellitennetz, was uns dann im Fall der Fälle helfen könnte, sicherlich keine schlechte Idee. Und jetzt wisst ihr, wenn ihr das mal wieder hört, dass ihr da Richtung Köln-Ports gucken müsst. Stella: Und jetzt finde ich es Zeit. Nach Weltraum, nach künstlicher Intelligenz, nach KI-generierten Werbespots, dringend brauchen wir jetzt alle eine gute Nachricht. Caspar: Ja, aber wir bleiben beim Thema KI, aber in dem Fall trotzdem eine gute Nachricht. Jingles: Gute Nachricht. Stella: Es geht um ein Code of Conduct demokratische KI. Also wer braucht das, wer steckt dahinter und wieso ist das überhaupt eine gute Nachricht? Das klingt extrem behördlich und ehrlich gesagt jetzt erstmal gar nicht so gut. Caspar: Ja, Elli hat sehr schön die Anmoderation reingeschrieben. Was haben die AWO, das Deutsche Rote Kreuz und die Deutsche Schachjugend mit 50 anderen zivilgesellschaftlichen Organisationen zusammen zu tun und gemeinsam? Eddie, was haben die denn gemeinsam? Elli: Ja, die haben sich eben an der Erstellung dieses Code of Conduct für demokratische KI beteiligt. Also sie haben sich überlegt, ja, KI ist irgendwie im Alltag unterwegs und immer da und wird auch immer größer, aber ist ja auch schwierig, ihr wisst es hier aus dem Podcast, wenige globale Tech-Konzerne, viel in den USA, viel Macht, wenig Kontrolle, Trainingsdaten, die fehlerhaft sind, schlechte Arbeitsbedingungen, Umweltkosten, Ausbeutung kreativer Arbeit, wir haben es hier. Schon mehrfach durchgekaut. Und gerade so zivilgesellschaftliche Organisationen, wie eben zum Beispiel die AWO, das Rote Kreuz, oder auch die Deutsche Schachjugend, haben in dem Moment, wo KI so allgegenwärtig ist, stehen sie vor einem Dilemma. Nämlich, was machen wir damit? Man verstößt eigentlich in manchen Punkten gegen die Werte, für die wir eigentlich stehen. Aber es benutzen alle. Und irgendwie wollen wir es auch gerne benutzen. Aber wie macht man das denn dann? Caspar: Und genau da springt jetzt dieses White Paper in die Bresche und möchte quasi, ja auch handfest ein paar Tipps geben, was man machen könnte. Es geht in erster Linie als allererstes mal um Solidarität. Solidarität in dem Fall ist gemeint und da gibt es auch ein Zitat tatsächlich aus dem Doc. Jetzt zitieren wir mal das White Paper. Solidarität heißt, gemeinsam Verantwortung zu tragen und andere überlegt und wirksam zu begleiten. Es bedeutet, die Interessen und Lebensrealitäten alle zu berücksichtigen, Insbesondere dort, wo Stimmen und Perspektiven strukturell wenig sichtbar sind, braucht es Aufmerksamkeit und Raum für deren Ausdruck. Elli: Und auch da kann ich wieder auf eine unserer vorausgegangenen Folgen verweisen. Zum Beispiel zum Thema, da wo Stimmen und Perspektiven strukturell weniger sichtbar sind. Wir hatten hier unter anderem schon mal das Ranking der KI, die ostdeutschen Menschen tatsächlich sogar eine niedrigere Körpertemperatur zugeschrieben hat. Also soviel zur Diskriminierung durch KI. Caspar: Und sowas soll halt eben mit bedacht werden. Also man kann KI durchaus, oder es ist legitim, KI zu benutzen. Man muss halt solche Dinge mit im Kopf behalten. Man muss reflektieren, man muss auch über Fehler sprechen, die passieren. Das passiert ja vor allem zum Beispiel, wenn man mit auf die US-Firmen gucken, eher ungerne, dass man da über Fehler spricht. Und man muss auch Verantwortung übernehmen, wenn man KI einsetzt. Das ist im Grunde so erstmal die erste große Kernaussage, die dieses White Paper trifft. Stella: Was es aber dazu gibt, sind auch Praxisleitfäden, also quasi nicht nur Definitionen, sondern auch zum Beispiel Reflexionsanleitungen zusätzlich und auch Tipps für weiterführende Ressourcen. Also insgesamt einfach die acht Grundprinzipien zur solidarischen KI-Nutzung, an denen sich dann eben die zivilgesellschaftlichen Organisationen, einige haben wir auch schon genannt, orientieren können. Und das klingt ja vielleicht noch ein bisschen abstrakt. Was kann so ein Praxisleitfaden möglicherweise sein? Einfach auch, wie geht es eigentlich? Schritt für Schritt Tool auswählen bis zum täglichen Einsatz. Das Paper gibt eben auch Firmen und Organisationen einfach möglichst konkrete Tipps, weshalb wir auch gedacht haben, hey, das ist eine sinnvolle Sache, das an dieser Stelle zu erwähnen. Elli: Und Caspar, du hast ein paar Beispiele mit rausgeschrieben aus diesem, 35 Seiten sind es, das PDF. Du hast ein paar mitgebracht, passt auch irgendwie zum Adventskalendertürchen vom 17., glaube ich, was ich schon mitgebracht hatte, da ging es auch so ein bisschen in die Richtung und erzähl mal, was hast du mitgenommen? Caspar: Ja, also ein Beispiel wäre zum Beispiel offene und gemeinwohlorientierte Modelle bevorzugen. Also es gibt natürlich die großen Sprachmodelle von den großen Anbietern. Es gibt aber bei Sprachmodellen zum Beispiel auch sehr viel Open-Source-Modelle. Es gibt auch welche, die bei den Trainingsdaten dann zum Beispiel schauen, dass sie nicht irgendwie alles zusammenklauben, sondern zum Beispiel auf Urheberrecht achten oder auch sowas wie Bias berücksichtigen. Du hast es ja gerade schon angesprochen, Elli. Da gibt es sehr viele Vorurteile in vielen Sprachmodellen. Ein zweiter Punkt, den solche Firmen oder Organisationen machen können, sind klare rote Linien definieren für sich selbst in der täglichen Arbeit. Also zum Beispiel, dass man sagt, wir setzen KI nicht für Recruiting ein. Wir wollen nicht, dass eine KI über Arbeitsplätze bestimmt. Wir schauen drauf, wenn wir Bilder generieren, dass wir das wirklich bewusst tun und zum Beispiel nicht einfach nur so, weil das ist immer noch sehr ressourcenintensiv. Auch Videogenerierung, die ist ja nochmal ressourcenintensiver, einfach so aus Spaß an der Freude, nicht einfach irgendwas vor sich hingenerieren, sondern das immer im Hinterkopf behalten. Was auch sehr wichtig ist, laut diesem White Paper ist Mitarbeitende und Betroffene aktiv einzubeziehen. Also nicht jetzt heute früh dann sagen, ab jetzt machen wir alles mit KI, sondern die auch wirklich mit an den Tisch holen, Bedenken austauschen und auch gucken, wie man aktiv schauen kann, dass zum Beispiel nicht davon plötzlich die Hälfte der Leute irgendwie deren Arbeitsplatz bedroht sieht. Elli: Was ich auch sehr schön finde und was daran so ein bisschen auch anknüpft, wenn Effizienz gewonnen wird durch KI-Einsatz, dann soll man da nicht einfach das als ein Sparpotenzial sehen, sondern eben den freigewordenen Raum für Beziehungen, für Fürsorge oder zum Beispiel für Kreativität auch wirklich nutzen und nicht dadurch einfach abspecken. Caspar: Und zusammengefasst ist das alles auch noch als ein gemeinsamer Code of Conduct, den auch schon mehr als 100 Organisationen sich angeschlossen haben. Den findet ihr in dem White Paper auch nochmal. Könnt ihr auch nochmal gucken, ob vielleicht eure Organisation auch noch was wäre, was das mit unterzeichnet. Stella: Vielleicht zeigt das aber an der Stelle einfach, dass künstliche Intelligenz zum Beispiel jetzt in Anführungszeichen kein Naturereignis ist, sondern wir es einerseits gestalten können, aber vielleicht auch müssen und das vor allen Dingen gemeinsam machen müssen, dass es da eben auch Absprachen gibt über Organisation etc. Und dass man auch über Grenzen spricht, was man vielleicht nicht damit machen möchte. Also auch jenseits von Big Tech sich damit organisiert auseinanderzusetzen. Elli: Ja, diesen Aspekt Sachen einfach mal nicht zu machen, fand ich auch sehr, sehr gut in diesem ganzen White Paper. Stellt sich noch die Frage, wir haben jetzt so ein paar Organisationen aufgezählt, die damit beteiligt waren oder sich auch diesen Verhaltenskodex angeschlossen haben, aber initiativ muss da natürlich auch jemand dahinter stehen, der die Fäden in der Hand hält und auch finanziell die Ressourcen für so ein Projekt bereitstellt. Und das ist D64, das ist ein Zentrum für digitalen Fortschritt, ein eingetragener Verein und der sitzt in Berlin. Und die sind so eine Schnittstelle von Digitalpolitik, Demokratie und Zivilgesellschaft, bringen also alles unter einen Hut und arbeitet schon seit Jahren zu Themen wie Plattformregulierungen, KI-Governance, Grundrechte, digitale Teilhabe. Also die überlegen sich schon seit Jahren, wie können wir eigentlich mit Technik so umgehen, dass sie uns als Gesellschaft nützt und uns nicht weiter auseinanderbringt. Caspar: Genau und D64 hat die vorhin von dir auch schon genannten Organisationen zusammengetrommelt und zum Abschluss noch gefördert, weil du das Geld ja auch angesprochen hast. Gefördert wird das übrigens auch vom Bundesministerium für Bildung, Familie, Senioren, Frauen und Jugend. Mein Lieblingsministerium, weil das ein Ministerium einmal für alles ist. Stella: Und ich hätte jetzt irgendwie gerne gesagt, es war ein tolles Schlusswort für diese Folge, aber so funktioniert das jetzt nicht. Wir sind dennoch am Ende dieser Folge angekommen, der finalen Folge von Silicon Weekly für 2025 in unserer Dreierbesetzung, weil wie gesagt, es geht ja bis zum 24. Dezember bis Heiligabend haben wir Türchen für euch. Wir sind euer Podcast Adventskalender, der jeden Tag in der Vorweihnachtszeit für euch da ist. Elli: Ja, ich habe noch zwei Sachen zu sagen. Einerseits, Caspar, ich glaube, wir können das White Paper auch mal in den Shownotes verlinken. Sehr gute Idee, ja. Die PDF liest sich nämlich sehr gut. Also ich war erstaunt. Oft hat man das ja, dass so ein Pamphlet dann irgendwie über 35 Seiten recht sperrig ist. Aber das kann man sich wirklich mal gut durchlesen, vielleicht auch irgendwas anmalen, was man wichtig findet oder so. Fand ich sehr gut. Und ansonsten, wenn alles planmäßig verläuft, dann bin ich nämlich tatsächlich schon raus für dieses Jahr. Ihr hört mich in keinem Türchen mehr. Es stimmt. Und damit würde ich euch schon mal einen schönen, schöne Weihnachtstage wünschen. Einen guten Rutsch und ein gutes neues Jahr. Caspar: Ey, die macht eine Mic Drop. Elli: Ich werfe das Handtuch für dieses Jahr. Ich komme natürlich im Januar wieder. Stella: Aber mal gucken. Elli: Vielleicht läuft ja auch irgendwas schief und dann müsst ihr doch Nein. Caspar: Nein, nein. Wir wissen, wo du wohnst. Zur Not kommen wir vorbei mit Mikros. Stella: Wir fahren auch notfalls bis runter nach Bayern. Wir kennen da nichts. Ne, Caspar? Caspar: Ich wollte gerade sagen, wir waren schon so oft in München jetzt. Das ist ja schon fast unsere zweite Heimat. Podcast-Tisch. Elli: Ich meine, jetzt vielleicht geht mit dem Adventskalender Türchen was schieben und dann muss ich doch noch. Stella: Wir haben hier mit einer guten Nachricht geschlossen. Und jetzt kommst du hier so um die Ecke. Caspar: Jetzt muss ich auch noch auf Holz klopfen hier. Stella: Wir machen das. Ich habe den Tisch gehauen. So, stellvertretend für uns alle. Aber, wie gesagt, es geht weiter mit dem Adventskalender. Und ab dem 8. Januar geht es mit uns dreien weiter. Und wenn wir Eddie bis nach München verfolgen, dann soll es so sein. Aber da werdet ihr uns wieder hier hören. Ich glaube, im Radio hat man doch, früher gab es diesen Spruch, gleiche Stelle, gleiche Welle. Caspar: Ja, das trifft immer noch zu. Gleicher RSS-Feed in dem Fall. Da wir das in den Adventskalenden natürlich nicht sagen, wir wünschen euch eine besinnliche Weihnachtszeit. Falls ihr nicht Weihnachten feiert, besinnliche Feiertage. Wir wünschen euch einen guten Rutsch. Übertreibt es nicht. Kommt gut und gesund ins neue Jahr. Und wie gesagt, wir hören uns dann im Januar wieder. Stella: Und vergesst nicht, uns zu abonnieren, damit ihr das auf gar keinen Fall verpasst. Und wir freuen uns natürlich auch über liebe Weihnachtsgrüße. Aber habt einfach eine gute Zeit zwischen den Jahren. Caspar: Empfehlt uns auf der Familienweihnachtsfeier einfach den ganzen Bagage. Elli: Ich wollte gerade sagen, Onkel Herbert hatten wir schon. Vielleicht empfehlt ihr dem einfach mal ein paar Podcasts. In diesem Sinne, macht's gut, passt auf euch auf. Caspar: Macht's gut. Stella: Bis nächstes Jahr. Tschüss. Caspar: Tschüss. Elli: Tschüss. Jingles: Das war's schon wieder für diese Woche. Folgt oder abonniert uns gerne in eurer Podcast-App und lasst uns dort eine Bewertung da. Das hilft uns sehr. Bis zum nächsten Mal.
silicon-weekly.de
December 17, 2025 at 11:11 PM
Episode 74: Netflix vs. Paramount und im Hintergrund Trump
Stellt das Popcorn bereit, in unserem Input geht es diese Woche um einen echten Hollywood-Thriller. Denn Netflix und Paramount kämpfen in einem Milliardenpoker um Warner – und Trumps Schwiegersohn und mehrere Golfstaatenfonds mischen auch schon mit. Egal, wie der Wettkampf ausgeht, es wird Folgen für das Kino und für uns haben. Außerdem sprechen wir über Photobombing im All und wieso die US-Techkonzerne gerade mal wieder gar nicht gut auf die EU zu sprechen sind. ### Transkript der Episode _Transkript wird automatisch erstellt_ Jingles: Silicon Weekly, der Tech-Podcast mit den wichtigsten News der Woche. Für dich eingeordnet von Elli, Stella und Caspar. Caspar: Ein wunderschönes Hallo zu unserem Türchen Nummer 11, was wieder mal, weil es ein Donnerstagstürchen ist, eine ganz normale Folge ist. Es ist aber eine besondere Folge aus zwei Gründen, transparenter Podcast. Wir warten auf eine Pizza, falls ich also schneller moderiere als sonst, könnte das daran liegen. Und falls ihr merkt, dass diese Podcast-Episode irgendwie zwei Teile hat, also im Schnitt werden wir das regeln, das wird man nicht merken, aber wenn, liegt es daran. Und der zweite besondere Grund ist, wir nehmen mal wieder lokal und zusammen auf. ich sehe in echte Gesichter und nicht in einen Computerbildschirm. Ich fange mal da an. Links von mir sitzt... Stella: Stella, hallo. Und wir warten auf zwei Pizzen und Pizza Brötchen. Elli: Und ich auch. Also ich warte auch, hier hat es gerade schon geklappt, die Tür hat schon geklappt. Ich bin Elli, hi. Caspar: Jetzt fühlen sich alle Hörerinnen und Hörer gestresst. Elli: Nein, keine Kosten und Mühen gescheut, hierher zu kommen, weil man muss auch sagen, das ist in der Bahn Verbindung, die ich eigentlich nehmen wollte, schon Probleme gab. Caspar: Ja, da stand ein Auto auf den Gleisen, was in Hannover leider immer mal wieder passiert. Aber das wäre ein anderer Input, da wollen wir heute nicht drüber reden. Wir haben was Kino-Reifes, wir haben vielleicht die Möglichkeit, dass ihr Popcorn schon mal, wenn ihr das habt, Mikrowell-Popcorn zum Beispiel, schon mal in die Mikrowelle schmeißen könnt, da kommen wir im Input zu. Aber erstmal geht es wie immer um die Updates und da gucken wir unter anderem natürlich, wie sollte es sonst sein, auch mal wieder in die USA. Stella: Ich musste gerade, bevor wir mit den Updates anfangen, mich fragen, ob man vielleicht merkt bei unseren Moderationen, dass wir Hunger haben, wenn du schon direkt das Popcorn ansprichst. Aber das ist ein anderes Thema. Fangen wir mal so an. Wir haben ja schon mehrmals über das Thema Urheberrechte gesprochen im Kontext mit künstlicher Intelligenz. Und in die Richtung geht auch das erste Update. Und zwar will die New York Times gegen Perplexity klagen. Und zwar soll das KI-Unternehmen Inhalte unerlaubt nutzen, teils für den ganzen Artikel übernommen, woraus auch eine Konkurrenz entstehe. Weil klar, wenn ich jetzt als Nutzerin beispielsweise bei Perplexity nach Schlagzeilen frage und dann plötzlich einen New York Times-Artikel angezeigt bekomme und dort lese, gehe ich natürlich nicht auf die New York Times-Seite. Elli: Ich muss zugeben, da klingelt jetzt was bei mir. Einerseits bei New York Times und Klagen und andererseits bei New York Times und Perplexity. Caspar: Ja, die sind nicht zum ersten Mal im Rechtsstreit. Und bei mir hat auch noch was geklingelt bei News oder Medien, die sich falsch zitiert vorkommen. Da haben wir auch vor einer Weile drüber gesprochen. Die BBC hatte nämlich das Problem, dass die auch zum Beispiel bei Perplexity zitiert wurden. Allerdings war es, dass zitiert wurde, das war falsch. Stella: Genau, das ist nämlich auch der zweite Punkt. Teilweise kommt es auch zu falschen Inhalten, bei denen dann eben auf die New York Times als Quelle verwiesen wird. Aber sie ist natürlich nicht die Quelle, weil es ist ja, wie gesagt, eine falsche Nachricht dann mitunter. Vielleicht hat es bei euch auch geklingelt, New York Times, OpenAI, da war auch schon mal was. Elli: Ach, das war das richtig. Stella: Und Microsoft. Also ich gebe zu, New York Times und Perplexity habe ich persönlich noch nicht in den News gehabt. Aber auf jeden Fall New York Times, OpenAI und Microsoft. Da ging es konkret darum, dass diese KI-Systeme ohne Entgelt mit Artikeln trainiert worden seien. Das heißt, New York Times wurde nicht entschädigt dafür, dass die Inhalte genutzt worden sind. Und vielleicht klingelt auch bei fleißigen ZuhörerInnen was, denn wir haben ja schon in Episode 70 mal über die GEMA und OpenAI gesprochen. Die hatte wegen Urheberrechtsverletzungen Gegen OpenAI geklagt, Mitte November vor dem Landgericht München da auch Recht bekommen. OpenAI wollte in Berufung gehen, dazu gibt es aber öffentlich, Stand 9. Dezember, als ich das recherchiert habe, noch nichts Neues. Elli: Also wir gucken mal drauf, so in den nächsten Wochen, Monaten vermutlich, wie das dann aussieht, ob die New York Times tatsächlich klagt und wie das dann auch verläuft, welche Argumentationen da benutzt werden. Caspar: Sie werden es wieder ziehen. Elli: Wie üblich bei solchen Prozessen. Wahrscheinlich werdet ihr auch wieder die altbekannte Fair-Use-Klausel hören, die ja so KI-Anbieter gerne mal benutzen, um sich zu rechtfertigen, wenn sie Sachen zitieren und übernehmen und auch als Trainingsdaten benutzen. Naja, wir gucken mal, was bei rumkommt. Wir haben noch ein Update mit KI. Stella: Genau, und zwar geht es um die Europäische Kommission. Die hat nämlich gegen Google eine Untersuchung wegen möglicher Verstöße gegen das Wettbewerbsrecht eingeleitet. Konkret geht es um die KI-Suche. Und der Hintergrund, Google würde die Inhalte von Dritten nutzen, ohne die UrheberInnen dafür zu bezahlen. Außerdem geht es auch darum, ob Google Konkurrenten benachteiligt. Google hat auch schon reagiert und kritisiert, das würde ich gleich zusammenziehen und zwar mit dem Grund, das würde die Innovation hemmen. Caspar: Ja, das ist ein schönes Argument. Stella: Warum habe ich das so betont? Weil das doch ein, sagen wir mal, eher häufigeres Argument ist. Das Thema, es würde Innovation hemmen, sobald auf bestehende Regelungen verwiesen wird, die unter anderem, wenn wir jetzt auf Konkurrenz gucken, auch für Monopolen schützen sollen etc., dann heißt es immer schnell, ah, ah, das geht ja nicht, die Innovation. Caspar: Ja, da muss ich jetzt an der Stelle mal unseren Kanzler zitieren. Der hat nämlich sich heute dazu geäußert und sagte, wenn jemand in der EU aktiv ist, dann hat er sich gefälligst auch an EU-Recht zu halten und in dem Fall muss ich ihm tatsächlich auch mal zustimmen. Das gilt nämlich auch für Google, egal ob innovativ oder nicht. Elli: Wisst ihr, für wen das noch gilt? Caspar: Sag es mir. Elli: Elon Musk und der findet es richtig scheiße. Caspar: Ja, weil der ist, also gegen Google fängt jetzt das Verfahren an und gegen Axis ist das Verfahren jetzt abgeschlossen. Und das ist nicht gut für Elon Musk ausgegangen. Stella: Na, aber wir haben fast unterschlagen, auch gegen Meta-Laufen-Ermittlungen. Also die EU, die ist gerade auf jeden Fall aktiv. Bei Meta ist es nämlich so, dass das US-Unternehmen bei WhatsApp konkurrierende KI-Anbieter für Funktionen ausgeschlossen hat, eben bei WhatsApp. Zusammengefasst, Meta will da nur den eigenen KI-Assistenten erlauben. Und dementsprechend, die EU sieht das ein bisschen anders. Eine Frist, sprich gibt es bei den Ermittlungen nicht. Das heißt, wir können euch noch nicht sagen, wann diese Ermittlungen abgeschlossen sind. Caspar: So, und was ist mit Ex? Stella: Ex, ehemals Twitter, muss 120 Millionen Euro Strafe zahlen. Was ist da los? Die EU-Kommission hat die Strafe unter anderem wegen mangelnder Transparenz bei Nutzerkonten verhängt. Ihr kennt vielleicht noch von früher diese blauen Haken. Das war ein Statussymbol. Das hieß, das Konto ist verifiziert. In der Regel waren das auch NutzerInnen, die eine gewisse Reichweite hatten, eine gewisse Popularität. Caspar: Ich habe mehrfach versucht, mir so einen blauen Haken zu holen. und Twitter hat mir immer gesagt, ich bin nicht wichtig genug. Stella: Genau. Elli: Höre ich da eine Spur von Groll? Caspar: Kann ich mir nicht vorstellen. Elli: Naja. Stella: Ich wollte dieses genau übrigens auch nicht darauf beziehen, dass Caspar nicht wichtig genug wäre, sondern auf die Tatsache, dass du angefragt hast, aber die Zertifizierung quasi nicht behalten bekommen. Die Verifizierung, nicht Zertifizierung. Ein echter Caspar. Elli: Zertifiziert mit dem Blauen Haken. Naja, es hätte ja dann auch noch eine andere Möglichkeit gegeben, wie du dir den Blauen Haken hättest holen können, nämlich als der irgendwann mal zur Bezahlvariante wurde, da konnte man sich den dann kaufen. Caspar: Und das kritisiert die EU, weil sie eben sagt, das ist jetzt irreführend und da muss ich auch recht geben, es gab ja tatsächlich eine Zeit, als das eingeführt wurde, wo dann plötzlich der echte Papst mit einem blauen Haken, mit einem angeblich weiteren echten Papst über Jesus sich irgendwie unterhalten hat und all solche Dinge, also das ganze Verifizierungsgedöns bei Ex, jemals Twitter, war halt komplett auf den Kopf gestellt. Elli: Ja, dann gibt es noch so ein paar Punkte, die die EU zusätzlich nicht Nicht gut findet. Stella: Das ist sehr nett vermutlich. Elli: Ja, der hat eine Strafe verhängt, sagen wir es mal so. Also es wurde Strafe verhängt außerdem wegen intransparenter Werbung und wegen fehlender Zugänge für WissenschaftlerInnen zu den Daten, die so bei X durch die Pipelines laufen. Stella: Ja, genau. Und Basis für diese Strafe ist der Digital Services Act, der DSA. Und X hat auch schon darauf reagiert. Wie folgt, die EU-Kommission kann auf der Plattform nicht mehr werben. Der Ex-Product-Chef Nikita Beer teilte via X mit, dass das Werbekonto gekündigt worden sei. Caspar: Ja, Elon Musk hat außerdem in einem Tweet dazu aufgerufen, dass man die EU doch bitte abschaffen solle. Auch sehr erwachsen. Stella: Heißt das jetzt eigentlich immer noch Tweet oder Seed? Ich habe keine Ahnung. Elli: Er hat gepostet und war beleidigt. Caspar: Ja natürlich. Und Donald hat auch gesagt, oh das ist aber eine nasty Strafe. Es ist nicht gut, was die EU da macht. Stella: Das ist, möchte ich anmerken, kein wörtliches Zitat. Caspar: Das nasty schon. Aber sein Denglisch ist jetzt kein wörtliches Zitat gewesen. Stella: Das jetzt wird es wild. Elli: Ich muss zugeben, diesen Wunsch nach der Abschaffung der EU von Elon Musk den hätte man auch als What the Fuck nehmen können. Caspar: Ja, hätte man. Stella: Wir haben drüber geredet. Wir haben aber was anderes Gutes gefunden. Caspar: Ja, definitiv. Das ist ein bisschen weniger schlimm. Ich finde es eigentlich ganz süß. Also es ist schlimm, aber es ist irgendwie auch süß. Elli: Also du hast gesagt, du findest es ganz nett, Caspar. Ich finde, es ist zumindest mal irgendwas außerhalb von Social Media und Gesetzen. Caspar: Ja, und es hat nichts mit Elon Musk oder Amerika zu tun. Also schon auch irgendwo Amerika, aber nicht. Elli: Ja, auch mit Elon Musk. Naja, das ist sehr weit weg. Caspar: Ich nehme es zurück. Es hat doch eventuell, egal. Elli: Wir verlassen mal die Erde und lassen all diese irdischen Probleme hinter uns. Digital Services Act, Innovationsfeindlichkeit, Pipapo, die ganze Jammerei. Wir kümmern uns um die Welt. wirklich wichtigen Probleme, nämlich um die Probleme im Weltall. Und zwar wird im Weltall der Platz immer weniger. Und das merkt man auch bei Teleskopaufnahmen. Denn es gibt eine neue Forschung, die rausgekommen ist, eine neue Studie. Und zwar zu der Frage... Fotobombing im Weltall quasi. Wie viele Bilder von Weltraumteleskopen werden eigentlich durch Satelliten gestört? Caspar: Fotobombing, um mal kurz alle abzuholen, macht man auf einer Party zum Beispiel ganz gerne jemand macht ein Foto und dann springt noch jemand rein. Elli: Ja, dann wird das eigentlich anvisiert im Motiv. Caspar: Oder zeigt Hasenohren oder hüpft mit dem Nachhinter noch in die Kamera oder irgendwas. Elli: So ein bisschen gecrasht wird. Stella: Aber ich glaube, ich brauche nochmal so ein bisschen so eine Zahl hierfür. Was heißt denn da oben wird es voller? Elli: Ja, also, wir hatten 2019 laut der ESA 5000 Satelliten so im All. Heute sind es, Achtung, 15.800. Caspar: Ein bisschen mehr. Stella: Verstanden. Elli: Das ist mehr als das Dreifache. Caspar: Ich kann gut rechnen. Elli: Aber jetzt wird es noch doller, weil jetzt wird es nicht mehr nur noch das Dreifache. Wenn man sich die geplanten Satelliten-Launches anschaut, dann könnte die Zahl der Satelliten im All in den nächsten zehn Jahren auf bis zu 560.000 ansteigen. Caspar: Warte mal, ist das über das Zehnfache? Hundertfache? Elli: Wir rechnen jetzt mal nicht mit Caspar hier die ganze… Spoiler. Caspar: Es ist spät und mein Blutzucker ist im Keller. Stella: Caspar wäre nicht immer die Lehrer geworden. Elli: Stimmt. Stella: Aber wir haben ja zusammengefasst. Also Photobombing und zu wenig Platz für die Satelliten im All. Wie kriegen wir denn das für unser WTF jetzt zusammen? Elli: Also, das Ganze ist eine NASA-Studie, die letzte Woche in dem Science-Magazin Nature veröffentlicht wurde. Und da haben Forschende den Fokus auf das Hubble-Teleskop der NASA gelegt und auf drei weitere. Und sie haben dann mal simuliert, diese Teleskope machen ja immer in regelmäßigen Abständen Bilder und dann haben sie hochgerechnet, auf wie vielen dieser Bilder denn in Zukunft sind. schlechtere Bildergebnisse quasi zu sehen sein könnten, weil da entweder ein Satellit mit reingeschwommen ist ins Bild oder reingeflogen, oder aber auch, das große Problem ist auch, dass diese Satelliten Licht reflektieren von der Erde, vom Mond und so weiter. Caspar: Die selber leuchten ja in der Regel nicht wirklich, aber ich weiß nicht, habt ihr in letzter Zeit mal in Sternenhimmel geguckt? Ich habe das in diesem Sommer getan. Man kann tatsächlich zum Beispiel die SpaceX-Satelliten immer wieder sehen, weil das plötzlich leuchtende Punkte sind, die ein bisschen aussehen wie kleine Sterne und die exakt einer Linie immer folgen. Und da braucht man im Grunde nur zwei Minuten hin und gucken, dann sieht man schon so ein SpaceX-Satellit. Und wenn der jetzt vor so einem Teleskop durch die Gegend fliegt, ist das natürlich schon störend. Elli: Und mit SpaceX sind wir dann wieder bei Elon Musk. Caspar: Richtig. Elli: Und die Kernaussage dieser Studie, die jetzt eben veröffentlicht wurde, diese Satelliten, die das Licht reflektieren, könnten in den nächsten zehn Jahren bis zu 40 Prozent der Bilder, die das Hubble-Teleskop unter anderem aufnimmt, versauen. Und sogar bis zu 96 Prozent der Bilder, die drei andere in der Untersuchung berücksichtigt. Teleskope machen. Fragt man sich natürlich, warum bei Hubble sind es nur 40 Prozent, bei den anderen bis zu 96 Prozent, was ist denn da los? Das hängt unter anderem damit zusammen, wo ein entsprechendes Teleskop platziert ist, also ob es zum Beispiel weiter oben oder weiter unten als die meisten Satelliten ist und auch wie quasi dieses Blickfeld der Teleskope ist. Wenn man ein größeres Blickfeld hat, dann kann man davon ausgehen, selbst wenn da irgendwo so ein Satellit irgendwo noch rumschwirrt, dann ist der nicht ganz so störend. Und Hubble hat ein relativ großes Blickfeld, in Anführungszeichen. Dementsprechend ist da die Chance, dass die Bilder wirklich versaut werden, ein bisschen geringer als bei Teleskopen mit einem kleineren Blickfeld. Caspar: Ja, also Fotobombing durch Satelliten, das ist ja eher so ein Blick in die Zukunft. Das ist ja eine Studie, die voraussagt, wie ist es denn aktuell? Elli: Also wir hatten ja fürs Hubble-Teleskop die 40 Prozent. vorausgesagt oder prognostiziert, aktuell zwischen 2018 und 2021, waren 4,3 Prozent der Hubble-Bilder mit Satellitenlichtverschmutzung, betroffen oder davon betroffen. Stella: Jetzt muss ich mal fragen, aber klar, Photobombing ist das irgendwie, klingt witzig, aber was ist denn das Problem darum? Aber worum sprechen wir denn jetzt? Elli: Also das große Problem ist, Wenn da Licht auf diesen Satellitenbildern mit drauf ist von einem Satelliten, äh, nicht auf den Satellitenbildern, ich sage immer Satellitenbilder, wenn da Licht von einem Satelliten auf einem Teleskopbild auftaucht, so rum, dann…, Kann es sein, dass Sachen nicht mehr so gut sichtbar sind, dass Sachen verdeckt werden und das ist ein Problem, weil es einerseits an sich die Forschung einfach verlangsamt, zum Beispiel die Entdeckung neuer Planeten könnte mühsamer werden, aber auch die Entdeckung zum Beispiel von Asteroiden und sowas. Also Sachen, die auch wirklich durchs All brettern und schon nicht ganz irrelevant auch für uns hier auf der Erde sind. Dementsprechend ist das eine Problematik, also generell wächst gerade auch so ein bisschen das Bewusstsein, oh, im Weltall ist ja doch nicht so, also zumindest in den Sphären, in denen wir Menschen uns mit unseren Satelliten bewegen, ist nicht so unendlich viel Platz. Gibt es auch in den letzten Jahren immer wieder Fragen zur Gesetzgebung. Wie regelt man eigentlich den Platz im Weltall? Wie bestimmt man, wer wohin darf und so weiter? Stella: Weltraumschrott. Caspar: Genau. Satellitenlichtverschmutzung ist auf alle Fälle jetzt schon mal das Wort des Jahres für mich. Stella: Wisst ihr aber, was ich gut finde? Dass wir ein WTF haben und das ist eine Besonderheit, eine Rarität in diesem Podcast, was direkt Lösungen drauf zeigt. Caspar: Ja, stimmt. Elli: Du hast nämlich aufgeschrieben. Caspar: Was man machen könnte unter Umständen. Elli: Also erstmal habe ich eine Nichtlösung. Man könnte ja jetzt sagen, okay, bauen wir mal Satelliten, die weniger Licht reflektieren. Das Problem ist, die sind zwar dann dunkler, aber die werden auch wärmer und geben dann wieder mehr Infrarotlicht ab. Und das heißt, sie versauen die Bilder dann trotzdem, auch wenn sie nicht das normale Licht quasi reflektieren, naja. Aber eine Idee ist zum Beispiel, Satelliten und Teleskope in unterschiedlichen Höhen, also in unterschiedlichen Orbiten und Bereichen zu platzieren, sodass die sich nicht ganz so im Weg umgehen vielleicht. Dafür braucht es aber eben viel Kooperation und Koordination der Akteure, die hier unten auf der Erde sitzen. Wie gesagt, auch im Bereich Gesetze und Gesetzgebung ist da schon seit Jahren sowas sich am entwickeln und das Bewusstsein wächst. Und vielleicht bringt ja diese Studie, die da jetzt veröffentlicht wurde, da nochmal einen spannenden Aspekt mit rein, der berücksichtigt wird. Caspar: Ja, wäre ganz gut, wenn der wilde Westen im Orbit so ein bisschen aufhört. Elli: Ja. Caspar: Gut. Stella: Wilder Westen, Caspar. Das ist eigentlich eine ganz gute Überleitung zu unserem Epcot. Elli: Oder? Caspar: Ich wollte sagen, vielleicht haben die Leute ihr Popcorn ja schon fertig, dann wäre es jetzt gut, das rauszuholen, denn wir sprechen über den Wilden Westen und was da rund um Thema Netflix und Paramount gerade passiert. Elli: Wenn ihr eure Filme nicht in der Videothek eures Vertrauens um die Ecke ausleiht oder in der Bibliothek Videothek. Caspar: Wann warst du das letzte Mal in der Videothek, Elli? Elli: Dann nutzt ihr vermutlich einen Streaming-Dienst. Caspar: Ich bin der Alte hier. Stella: Ich liebe aber auch, Elli, mit welcher Ernsthaftigkeit du das gesagt hast, so als würde jeder von uns immer noch einmal wöchentlich Freitagabend geht's ab in die Videothek des Vertrauens. Elli: Gibt's noch Videotheken? Ich glaube nicht. Ich glaube auch nicht. Also es gibt bestimmt noch in eine gewisse Richtung, gibt es glaube ich noch Videotheken, aber Ich bin alt genug. Caspar: Dass Videotheken noch wirklich Videos hatten und wehe, man hat sie nicht zurückgespult, dann hat man eine Gebühr bezahlt. Elli: Ja, ich kenne nur noch DVDs, aber auch da die Ausleihefrist war immer sehr. Caspar: Achso, ich dachte, die muss man auch zurückspulen. Elli: Nee, das habe ich nie versucht. Caspar: Gut, aber wir kommen vom Thema. Wie kommst du auf Videotheken? Elli: Ja, also ich glaube, die wenigsten unserer Hörerinnen und Hörer benutzen noch Videotheken so im analogen Leben. Entweder ihr guckt fern oder vielleicht geht ihr auch mal, leitet ihr euch einen Film in der Bücherei aus, kann man auch machen. Caspar: Oder online, online kannst du auch ausleihen. Elli: Ihr habt, genau, ihr habt einen Streamingdienst und um einen von diesen Streamingdiensten, wir haben ja eine bunte Palette mittlerweile, ich weiß noch so von, weiß ich nicht, zehn Jahren vielleicht, gab es einfach nur Netflix. Caspar: Ja, die haben da jetzt angefangen mit. Die haben ja ursprünglich mal DVDs nach Hause geschickt und haben sich dann überlegt. Elli: Genau, die waren mal eine Videothek, ne? Caspar: So eine Online-Videothek quasi. Die haben sich dann überlegt, okay, jetzt lassen wir das mit Streaming machen und Netflix ist jetzt auch Teil unseres Inputs. Elli: Richtig, wir kümmern uns mal nicht um Disney plus HBO. Caspar: HBO schon. Elli: Amazon Video, tralala und hopps, das sei HBO schon, da hast du recht. Stella: Sondern um Netflix. Elli: Und da gibt es jetzt eine News, die diese Woche so reinkam und ich muss sagen, ich habe eine E-Mail bekommen von Netflix. Netflix hat mir nämlich geschrieben, dass die in der Netflix-Familie Warner Bros. hat. begrüßen. Und warum das spannend ist und ob das überhaupt schon durchgewungen ist, darüber sprechen wir heute mal. Caspar: Genau. Warner Brothers Discovery will Netflix übernehmen. Das ist, Warner Brothers habt ihr wahrscheinlich schon mal gehört, das ist ein Studio. Hollywood ist ein großer Name, über 100 Jahre oder rund 100 Jahre alt schon. Hat also die Filmbranche sehr geprägt. Und dazu gehören auch ein paar Franchises, auf die es Netflix noch abgesehen hat. Da kommen wir aber gleich noch zu. Ich bin gespannt. Elli: Ich habe nämlich dazu nicht so Also wirklich, also mir sagt der Name was, aber ich kann mit sowas immer nichts verbinden. Caspar: Nichts konkreter. Elli: Also ich kann noch, ich sehe noch dieses Logo, was so beim Film im Vorspann kommt, aber dann hört es auch auf. Caspar: Dann hört es auch auf bei dir. Mit den Franchises wirst du was anfangen können gleich, ich verspreche es. Jetzt könnte man natürlich denken, okay, Netflix will ein Filmstudio kaufen, klingt nach einem relativ üblichen Deal. Die eine Firma schluckt die andere. Langweilig. Ganz so einfach... Ist es nicht, weil dahinter steckt fast krimihaft ein ziemlicher Bieterstreit inzwischen. Und 2025, USA, es geht nichts ohne Donald Trump und Familie. Die haben nämlich auch ihre Finger im Spiel und um zu spoilern, es wird auch um saudische Investoren gehen. Elli: Ich finde es sehr schön, du hast es in unserem Dokument geschrieben. Es wird ein echter Hollywood-Thriller aus dem Milliardendeal. Feindliche Gebote, politische Einflussnahme und Kartellbedenken. Wobei, also Kartellbedenken können schon wieder ein bisschen trocken werden. Caspar: Ja. Elli: Aber ich würde sagen, wir schnappen uns. Stella: Aber könnte auch nach Drogen und Mafia klingen. Caspar: Ja, stimmt. Elli: Wir schnappen uns das Popcorn. Unsere Pizza ist übrigens mittlerweile angekommen. Und wir filmen ab, würde ich sagen. Machen wir mal. Caspar: Ja, wir machen mal ein, was bisher geschah. Also wir fangen jetzt quasi mit dem Epilog an. Wir haben es ja schon gesagt, das klingt erstmal relativ unspektakulär. Netflix hat angekündigt in der Mail, die du bekommen hast und auch per Pressemitteilung, dass sie Warner Brothers Discovery für rund 83 Milliarden US-Dollar kaufen wollen. Stella: Genau, und nicht nur Elli hat diese Mail bekommen, sondern Elli war eine von wahrscheinlich sehr, sehr vielen. Wir haben auch eine genaue Zahl mitgebracht. Weltweit sind es rund 300 Millionen AbonnentInnen. Dementsprechend vielleicht... Also ich habe sie auch bekommen. Caspar: Ich habe sie auch bekommen. Die werden sie, alle diese Abonnentinnen werden sie bekommen haben. Stella: Genau und da war Netflix sehr optimistisch, hat zwar auch noch gesagt, ja da kommt es ein bisschen auf, hier muss noch behördliche Zustimmung und so, der Deal ist noch nicht durch. Elli: Aber es war ja auch die Rede von dem nächsten Jahrhundert des Geschichtenerzählens, so hat das gesagt Ted Sarandos, der CEO von Netflix. Caspar: Richtig. Elli: Ja, und angekündigt war dieser Abschluss des Deals für das dritte Quartal 2026. Caspar: Genau, also ein bisschen Zeit wäre noch gewesen. Und warum interessiert sich Netflix dafür? Wir haben die Franchises eben schon angesprochen. Da sind so unbedeutende kleine Marken wie, und jetzt kommst du hoffentlich wieder mit, Ellie, Harry Potter, DC oder Game of Thrones dabei? Elli: DC ganz kurz. Caspar: Comics. Elli: Superhelden. Caspar: Batman und Superman. Stella: Es gibt immer so ein, man muss sich glaube ich entscheiden leider, es gibt immer zwei Lager. Es gibt Marvel und DC. Caspar: Es gibt Android und es gibt iOS. Windows und MacOS oder Linux. Genau und DC ist Batman und drumherum und Game of Thrones müsste man glaube ich wahrscheinlich heutzutage nicht mehr großartig erklären. Es sind auf alle Fälle große Marken, die natürlich sehr gut ins Netflix-Portfolio passen würden. Und deswegen ist Ted Sarandos auch so begeistert von der Idee. Elli: Wer Game of Thrones nicht kennt, riesiges Fantasy-Epos basierend auf Büchern und war vor... Jetzt ist es auch schon so fünf Jahre her, wo so richtig der Durchbruch der Fantasy auf Serien-Ebene war, wo man gesagt hat, das gucken jetzt alle. Caspar: HBO, HBO Max, das ist der Streaming-Dienst dahinter, da war das glaube ich so, ich nehme mich jetzt aus dem Fenster ohne die Zeit zu kennen, Game of Thrones 2 war glaube ich von HBO der größte kommerzielle Erfolg. Elli: Das hast du schon gesagt, Stella, Netflix 300 Millionen Abonnentinnen. Von HBO Max würden jetzt 130 Millionen Abonnentinnen weltweit dazukommen. Also zusammen fast 430 Millionen oder wir hatten vorher schon Mathe, eine halbe Milliarde. Caspar: Ja, so finde ich, kann man das hochrechnen. Das heißt, da wäre eine ziemliche Marktmacht zusammengekommen und deswegen gab es auch relativ schnell, als der Deal bekannt wurde oder der Plan des Deals, kartellrechtliche Bedenken, weil eine halbe Milliarde Abonnentinnen, da würde ein Streaming-Riese entstehen, der dann doch eine ziemliche Marktmacht hätte. Stella: Genau, konkret wurde von einer Monopolstellung gewarnt, die eben Vielfalt, Preisstruktur und Wettbewerb gefährden könnte und unter anderem Hollywood-Regisseure wie James Cameron haben auch von einer Gefahr für das Kino gesprochen. Man muss auch vielleicht dazu einmal sagen, bisher hat Netflix nämlich auch noch keine Kinofirme veröffentlicht. Elli: Ja, und eine der Befürchtungen, die damit so im Raum steht, ist, dass dann, wir sprechen ja eben vom Aufkaufen einer großen Filmproduktion, dass dann zum Beispiel Filme nur noch so... keine Ahnung, drei Wochen im Kino laufen könnten, um sie dann eben auf dem Streaming-Dienst zu verscherben. Und das ist eben die Befürchtung von Cineastinnen und Cineasten, Regisseurinnen und Regisseuren, dass Kino dadurch einfach komplett untergebuttert wird. Caspar: Ja, oder auch Filme viel häufiger einfach direkt ins Streaming kommen, was ja jetzt auch schon passiert, was man in der Kinowelt auch schon sieht. Das heißt, die sogenannten Distributionskanäle, also wo so ein Film hinwandert, die konzentrieren sich immer häufiger auf Streaming und die Gefahr ist natürlich, dass das im Zuge einer solchen Verschmelzung dann noch viel häufiger so wäre. Stella: Ja und auch, dass es generell weniger Produktion einfach gibt dadurch, dass es dann stärker zentralisiert ist, also die Produktions- und Distributionskanäle genauso wie weniger Vielfalt im Angebot und natürlich auch generell, das führt ja dann auch mit dazu, weniger Kinostarts einfach. Caspar: Ja. Elli: Jetzt sind das natürlich alles valide Kritikpunkte, die würden aber Netflix noch nicht davon abhalten, diesen Deal abzuschließen, aber wir haben ja schon angedeutet, das Ganze ist noch nicht durch und steht auch ein bisschen auf wackeligen Füßen. Wir haben da nochmal so einen juristischen Aspekt mitgebracht. Caspar: Ja, es gibt regulatorische Hürden, weil so Kartellrechte, da gucken ja auch immer Behörden drauf, damit eben nicht solche Marktmonopole entstehen. In den USA wäre das zum Beispiel das US Department of Justice, das da drauf gucken würde, aber auch in der EU gäbe es verschiedene Kartellbehörden, die unter Umständen sagen könnten, da wollen wir ein Wörtchen mitreden, ob das eine gute Idee ist, dass das passiert. Stella: Also, was so schon mal zeigt ist, dass das nicht einfach jetzt so gesehen um zwei Streaming-Dienste geht und so ein bisschen über Übernahmepläne, Caspar Dutt ist es eingangs angerissen, was interessiert mich das als Nutzerin, vielleicht kann ich bald Harry Potter bei Netflix gucken, sondern das geht weit über Hollywood hinaus, denn da kommen wir jetzt gleich zu. Es geht ja auch noch um Paramount, denn plötzlich kam ein neuer Akteur auf die Bildfläche mit einem überraschenden Angebot. Elli: Also neu für Paramount ist auch eine spannende Bezeichnung. Die sind ja absolut traditionsreich. Ja, sie sind jetzt neu in unserem Plot quasi. Aber Paramount Pictures kennt ihr vielleicht auch aus diversen Filmvorspannen. Caspar: Sind das die mit diesem Berg? Nee, doch, ja genau. Elli: Genau, das sind die mit dem Berg, glaube ich. Wer war das mit dem Löwen? War das Warner Bros.? Caspar: Nee, das war Warner Bros., das war das WB, diese Buchstaben. Elli: Naja, müssen wir nochmal gucken, wer was war. Stella: Habt ihr jetzt auch die Melodien dazu im Kopf oder geht das nur mir gerade so? Caspar: Nee, nee, ich hab die auch. Aus rechtlichen Künden können wir sie nicht abspielen, sonst hätten wir das jetzt jedes Mal, wenn der Name fällt, hätten wir das hinten raus. Und bei Netflix jedes Mal Dudum. Elli: Ja, also Paramount ist auf den Plan getreten. Die sind sehr traditionsreich, die produzieren Filme und sie haben sich direkt an die Aktionäre von Warner gewandt mit einem Angebot. 108 Milliarden US-Dollar in Cash, das heißt umgerechnet 30 Dollar pro Aktie statt, Achtung, 27,75 Dollar. die von Netflix geboten wurden. Caspar: Genau, jetzt könnte man natürlich sagen, 2,15 Dollar, oh, das habe ich gerade im Kopf ausgerechnet, ich bin begeistert. 2,15 Dollar macht jetzt keinen großen Unterschied. Natürlich, wenn ich eine Aktie von Netflix halte, macht das keinen großen Unterschied. Wenn ich aber 100 Aktien oder 1000 Aktien halte, sieht das schon wieder ganz anders aus. Das heißt, den Aktionären, die dann ihre Aktien abtreten müssten an Paramount oder Netflix, die würden natürlich mit dem höheren Angebot davon profitieren. Elli: Und Paramount argumentiert aber zusätzlich auch noch, dass der Deal mit Paramount wäre sicherer und schneller. Das Ganze mit diesen Netflix-Aktien, das ist ja auch, so sagt Paramount, volatil und regulatorisch schwierig. Einfach wegen dieser Monopol-Befürchtungen und so weiter. Und Paramount will tatsächlich auch mehr als Netflix. Netflix will nämlich eigentlich nur die Filme- und Serien-Streaming-Rechte kaufen. Paramount hingegen will das ganze Unternehmen inklusive Also CNN und Nachrichtensender, also da geht es auch wirklich dann um Fernsehen. Caspar: Genau, zu diesem ganzen Warner Bros. Ding gehören nämlich auch noch verschiedene Nachrichtensender und eben CNN, was ja auch ein Nachrichtensender ist, aber so der bekannteste. Das heißt, wir sprechen hier dann doch über ein ziemlich großes Unternehmen, was im US-Medienmarkt und weltweit ziemlich für Aufsehen sorgt. Elli: Also bisher hatten wir ein Übernahmeangebot von Netflix an Warner Bros und die Befürchtung, dass das so den ganzen Umgang mit Filmen und Kino und so weiter auch verändern könnte, natürlich auch so ein bisschen rechtliche Fragen. Dann trat auf den Plan Paramount, die ein Gegenangebot gemacht haben und ein bisschen mehr Kohle bieten wollen, dafür aber auch ein bisschen mehr haben wollen. Jetzt kommt Donald Trump. Caspar: Der Plottwist kommt. Wir haben nämlich noch einen dritten Handlungsstrang. Ja, Donald Trump. Um ein bisschen einzuordnen, wie der jetzt ins Spiel kommt, muss man wissen, dass der Paramount-CEO David Allison der Sohn von einem Oracle-Gründer Larry Allison ist. Und wieso erzähle ich euch das jetzt? Nun, weil Familie Allison und vor allem der Mäzen oder Oberhaupt, ich wollte schon Familienoberhauptvogel sagen, der Allison-Familie, Larry Allison ist sehr gut bekannt mit der Trump-Familie und damit dann natürlich auch mit der Trump-Regierung, weil in den aktuellen Zeiten, und wir reden hier eigentlich über eine Demokratie, ist Trump-Familie und Trump-Regierung nicht wirklich voneinander zu trennen. Elli: Und in der Familie bleiben wir jetzt auch mal direkt, denn der Schwiegersohn von Donald Trump ist am Angebot von Paramount beteiligt, der heißt Jared Kushner und natürlich ist nicht er direkt beteiligt und hat sich da mal kurz vor die Aktionäre gestellt, sondern er hat eine Private Equity Firma, die heißt Affinity Partners und die wäre eben an diesem Paramount Deal beteiligt. beteiligt. Würde nicht nur finanzielle Unterstützung bedeuten, sondern wir haben den Namen Trump so ein bisschen im Hinterkopf. Auch politischen und strategischen Rückhalt. Caspar: Ja genau, das ist heutzutage mit dabei und würde auch in diesen Übernahme-Poker, wie wir hier schönes Doc geschrieben haben, mit reinspielen und tatsächlich hat sich Trump auch schon öffentlich geäußert und er hat gesagt zum Beispiel, dass er die Übernahme von Ruhanna durch Netflix, die würde er kritisch sehen. Was für ein Zufall, wenn sein Schwiegersohn mit Paramount den Laden übernehmen möchte, kann nur ein Zufall sein. Man muss allerdings tatsächlich dazu sagen und das ist leider 2025 etwas, was man dazu erwähnen muss, diese ganzen Verstrickungen sind hochproblematisch. Nicht nur Expertinnen und Experten, sondern eigentlich jeder, der da drauf guckt und so ein bisschen Anstand noch hat, sage ich mal, weist darauf hin, dass Kaschners Rolle mindestens ethische Probleme hat, aber eigentlich ein Idealbeispiel von Interessenskonflikt ist. Der Schwiegersohn des US-Präsidenten, der sich politisch in solche Dinge einmischt, möchte mit eine Übernahme durchführen und das ist, wie gesagt, Interessenskonflikt aus dem Lehrbuch, das geht in der Demokratie eigentlich nicht. Elli: Ich finde es ganz nett. Wir hatten das schon mal bei so einer Trump-Geschichte. Du hast mal eine Blaupause, wie das dann in Deutschland aussehen würde. Caspar: Ja, habe ich gemacht. Das habe ich bei den Trump-Tone-Frauen auch. Ich glaube, sie war sogar ähnlich. Um mal so ein bisschen die Verhältnisse klarzumachen, man stellt sich mal vor, unser Bundeskanzler Friedrich Merz. Vor einigen Wochen oder Monaten wurde ja ProSiebenSat1 nach Italien verkauft. Ich glaube Berlusconi, der Sohn von Silvio Berlusconi spielt da so ein bisschen mit rein. Wir wollen gar nicht zu sehr ins Detail gehen, aber man stelle sich nur mal vor, der Schwiegersohn des Kanzlers wäre da irgendwie an diesem Deal beteiligt gewesen und der Kanzler hätte auch noch politisch darauf ausgewirkt oder eingewirkt, dass das Ganze in diese Richtung geht. Zum Glück hätte unser Kanzler und auch alle drumherum den Hut nehmen müssen, hoffe ich oder gehe ich sehr stark davon aus, noch haben wir keine amerikanischen Verhältnisse hier. Stella: Und der Kanzler hätte damit auch darauf eingewirkt, CNN hatten wir eingangs einmal erwähnt, dass ein Sender, der noch kritisch über ihn berichtet, dann in diesem Konstrukt dann quasi auch in Anteilen in das Besitztum seines Sohnes beziehungsweise Schwiegersohns übergeht. Elli: Ein Schellen, wer Böses dabei denkt. Ein Geschmäckle, wie man so schön sagt. Ja, wir sind aber noch nicht ganz am Ende. Caspar: Nee, immer noch nicht. Elli: Wir haben Netflix, Paramount. Dann hat sich Donald Trump und sein Schwiegersohn da irgendwie noch mit reingewurschelt in die ganze Geschichte. Und jetzt geht es nochmal in den Nahen Osten. Äh. Da gibt es nämlich auch Investoren, die eine Rolle spielen wollen. Caspar: Koschner alleine hat wohl, glaube ich, nicht die Kohle, um das alles durchzuführen. Deswegen hat er sich Investoren gesucht. Und zwar sind das in dem Fall Staatsfonds aus dem Nahen Osten, konkret aus Saudi-Arabien, Abu Dhabi und Katar. Und diese Fonds, die machen das ja auch nicht irgendwie aus Nächstenliebe, sondern die wollen natürlich zum einen Geld verdienen mit dem ganzen Deal, aber wahrscheinlich auch durchaus eine Rolle spielen, was so globaler Medienmarkt- und Entertainment-Konglomerat geht. Wir haben da auch bestimmte Idealvorstellungen und ethische Vorstellungen, die da vielleicht mit westlichen Welten vielleicht so ein bisschen clinchen, weiß man nicht. Offiziell betont Paramount, dass diese Fonds, diese saudi-arabischen, dass die auf Mitspracherecht verzichten bei dem Deal. Also auch zum Beispiel keinen Sitz in einem Verwaltungsrat bekommen oder ähnliche Dinge. Das ist aber natürlich auch ganz interessant, dass man das so betont. Vermutlich tut man das, um regulatorische oder politische Hürden so ein bisschen zu minimieren. So nach dem Motto, ja die Saudis sind dabei, aber das ist alles nicht so schlimm. Elli: Ja, also auch hier haben wir wieder ein Geschmäckle. Also es häuft sich so ein bisschen die Sache mit den Geschmäcklern. Man muss dazu sagen, wir gucken uns jetzt noch einmal an zum Ende der ganzen Geschichte, wie Netflix denn auf diese ganzen Gegenangebote und das ganze Bohei drumherum reagiert. Netflix hat ja schon so für sich gefühlt den Deal entschieden. Caspar: Die E-Mail klang sehr enttäuschig. Elli: Zumindest laut der E-Mail. Und tatsächlich hat der CEO Sarandos das ganze Paramount- Gebot auch als erwartbar bezeichnet. Also er dachte so, ja, ist jetzt erstmal noch nicht so viel, haut mich noch nicht aus den Socken. Und sieht den eigenen Deal weiterhin im Vorteil. Also rechnet sich trotzdem weiterhin gute Chancen aus. Aber, Es gibt ja dann noch was anderes, was den hier verhindern könnte für Netflix. Das Kartellrecht. Caspar: Das Kartellrecht und wenn Paramount dann übernimmt stattdessen, weil die US-Regierung sagt Kartellrechtlich, wäre das nicht schlimm, wenn Paramount das dann übernimmt. Ja, das schafft dann ein politisch gestütztes Medienkonglomerat und das wäre nicht nur für Netflix doof, das wäre für wahrscheinlich uns alle doof. Stella: Okay, wir haben das ja zusammengefasst, aber ich glaube, wir müssen jetzt mal zur abschließenden Einordnung kommen. Was heißt das denn nun? Ja, also. Doch ist ja offen, wie das Ganze ausgeht. Also jetzt Stand 10. Dezember. Caspar: Eigentlich, also fast egal, wie es ausgeht, ist das Ganze kein ganz gewöhnlicher Mediendeal. Das können wir glaube ich sagen. Und deswegen haben wir es auch zum Input erkoren. Netflix würde tatsächlich sich, wenn sie es werden, die dieses Übernahmeangebot hinbekommen, eines der ältesten und traditionsreichsten Studios Hollywoods unter den Nagel reißen und wir haben sie gerade aufgezählt, so ganz kleine Franchises wie Harry Potter und Co. ähm, Die würden dann in den Streaming-Quark wandern und das hätte tatsächlich sehr wahrscheinlich Folgen für Kino und Kreativbranche und auch für Hollywood. Würde Power Mount irgendwie das hinkriegen in diesem Beta-Drama, dann hätten wir, haben wir es ja schon erzählt, Jared Kushner, den Schwiegersohn von Donald Trump mit dabei. Wir hätten saudische und katharische Staatsfonds mit drin. Das wäre natürlich im Hintergrund eine Medienmacht, die sich da ausspielt, die vielleicht auch nicht so schön ist. Ja, und das könnte auch für Zuschauerinnen und Zuschauer, also für uns alle ganz konkrete Folgen haben. Elli: Richtig, weil natürlich, wenn Netflix diesen Deal bekommen würde zum Beispiel, dann hätte man auch mehr Macht, einfach die Preise zugeben. Zum Beispiel zu erhöhen. Man sagt ja, wir kriegt ja mehr Geboten. Wir haben da jetzt mal was eingekauft. Das müsst ihr uns jetzt aber auch ein bisschen refinanzieren, Freunde der Sonne. Ihr könnt jetzt hier bei uns ja Reporter gucken. Zahlt mal ein bisschen mehr. Caspar: Bitte. Bei uns kriegt ihr fast alles. Dann muss jetzt auch mal der Preis steigen. Elli: Genau. Stella: Da kommt aber noch was weiteres dazu, nämlich generell könnte auch einfach die Auswahl der Plattform logischerweise kleiner werden. Das haben wir ja auch schon eingangs einmal angesprochen. Inhalte stärker bündeln. Elli, du hast gesagt, es wird teurer. Und was ich auch als leidenschaftliche Kinogängerin, weil ich das jetzt einmal teilen darf, fragwürdig finde, es ist eine Frage, was überhaupt dann noch ins Kino kommt, weil wie gesagt, bis jetzt Netflix hat noch keine Kinoproduktion, noch nichts auf den großen Leinenwänden. Also wie geht das Ganze weiter? Ist natürlich auch eine Kostenfrage etc. Elli: Und auf der anderen Seite, wenn Netflix den Deal nicht bekommen würde, dann hätten wir eine ganz neue Wendung im Kampf um globales Entertainment und wer da die Strippen zieht und bestimmt, was gesendet wird und wie es gesendet wird. Caspar: Und zu welchem Preis. Ja. Elli: Ja, jetzt hast du zur Auflockerung, nachdem das irgendwie dann doch am Ende gefühlt die Wahl zwischen Pest und Kohler ist. Caspar: Ich weiß es nicht. Stella: Wir haben auch noch eine gute Nachricht. Caspar: Ja genau, die haben wir sowieso, aber wir sind ja ein Podcast, der auch immer mal wieder KI-Experimente macht. Elli: Ja, und wir hatten noch gar keine KI heute. Caspar: Nein, wir hatten noch überhaupt nichts mit KI und deswegen habe ich mal den aktuellen Stand. In dem Fall ist das jetzt der Anbieter Eleven Labs, es gibt aber noch verschiedene andere. Ich habe einfach mal ausprobiert, was passiert, wenn ich sage, ich möchte Musik, Geräusche und Stimmen gleichzeitig und ich möchte einen cineastischen Trailer rund um diesen Plot haben. Elli: Ganz wichtig an der Stelle, wenn wir euch solche Sachen mitbringen, dann heißt das nicht, dass wir das total feiern oder dass wir das unbedingt als neues Status Quo einführen wollen. Wir wollen einfach nur damit zeigen, was ist denn schon möglich, damit man so ein bisschen mal gucken kann. Caspar: Und ihr werdet auch gleich merken, ich habe den unbearbeitet gelassen, er ist genauso unten rausgefallen. Ihr werdet merken, da gibt es auch noch einige Stellen, die funktionieren nicht. Und da gibt es auch Stellen, ich weiß nicht, ob ich das, also jetzt zum Beispiel so ins Kino bringen würde ich diesen Trailer nicht. Aber genug drüber geredet, hören wir mal rein. Der Trailer heißt Der Kampf um Hollywood und viel Spaß. Jingles: In einer Welt, in der Streaming die Kinos obert. Und Milliarden die Regeln bestimmen, steht Hollywood vor seinem größten Showdown. Netflix, der unbestrittene Gigant, will Warner übernehmen. Ein Jahrhundert an Filmgeschichte, gebündelt unter einem Dach. Doch dann, ein unerwarteter Herausforderer betritt die Bühne. mit einem feindlichen Billiarden-De-Nut. Und als wäre das nicht genug. Im Schatten lauert politische Macht, die Trump-Familie, Saudi-Arabien, und Geld, das die globale Medienlandschaft für immer verändern könnte. Jetzt entscheidet sich, wer bestimmt, was zu tun. Jingles: Kino. Der Kampf um die Zukunft hat begonnen. Bald im Podcast deiner Wahl. Caspar: Jetzt sind alle wach, ne? Elli: Stella sitzt mir gegenüber, sieht ein bisschen fassungslos aus. Ich möchte an der Stelle ein ganz großes Shoutout an alle Synchronsprecherinnen und Synchronsprecher dieser Nation aussprechen. Ihr macht einen tollen Job und ihr habt gehört, das hier war gerade einfach ein bisschen furchtbar. Caspar: Das wird euch nicht in nächster Zeit ersetzen. Also man hat gemerkt, Englisch, Deutsch war so immer wieder ein Problem. Elli: Die Trumpfamilie. Caspar: Die Trumpfamilie. Stella: Auch, ich kann gar nicht so aussprechen, wie Versus ausgesprochen wurde, wie das da gemacht wurde. Caspar: Netflix versus Paramount. Stella: Wir haben schon am Anfang in der ersten, quasi in den ersten Sekunden, dieses leichte Vogelgezwitscher im Hintergrund hat mich schon rausgebracht, weil ich gar nicht wusste, ist das jetzt wie bei so einem Horrorfilm? Caspar: Zwischendrin war es ein bisschen Fluch der Karibik. Elli: Es wurde auch immer grisseliger. Stella: Ich wollte gerade sagen, etwas undeutlich in der Aussprache an vielen Stellen. Und leicht übersteuert auch. Das will ich nochmal zurückgeben. Das muss nochmal überarbeitet werden. Caspar: Der Prompt war Cinematic Trailer Action Movie 90s. Elli: Und du hast den Text, der gesagt werden sollte, vorgegeben? Caspar: Den habe ich vorgegeben. Elli: Ja. Ja, jetzt wisst ihr, was da so passiert. Wisst Bescheid über Netflix und potenzielle Kaufwünsche von Netflix. Ich bin bereit für eine gute Nachricht. Caspar: Eine echte, die nicht KI generiert ist und die nicht irgendwelche komischen Trailer nachmacht. Elli: Gute Nachricht So, wir begeben uns, also wir waren ja schon im Weltall heute und wir begeben uns nochmal so ein bisschen in die Vogelperspektive mit der guten Nachricht. Stellt euch mal vor, man packt alle Gebäude der Welt auf eine 3D-Karte. Caspar: Das wäre eine große Karte. Elli: Das wäre eine große Karte, das klingt auch nach einem sehr anspruchsvollen Unterfangen, würde ich mal sagen. Caspar: Nichts für ein Wochenende. Elli: Nee, das nicht. Stella: Wenn ich mir gerade so ein Globus vorstellen, kennt ihr diese Animation, wo dann die Häuser so rausragen? Elli: Ja, wo die so aus dem Globus sprießen quasi. Und wir gucken tatsächlich jetzt mal auf eine 3D-Karte und zwar auf die 3D-Karte, die aktuell weltweit die meisten Gebäude erfasst. Caspar: Ja. Elli: Die ist nämlich an der TU München erforscht, entwickelt, kartografiert worden. Ich weiß nicht, wie man das nennt. Sagt man kartografiert? Bestimmt. Und das Ganze heißt der Global Building Atlas. Der enthält 2,75 Milliarden Gebäudemodelle und zum Vergleich, die bisher umfassendste Datenbank hat 1,7 Milliarden Gebäude erfasst. Caspar, du bist heute im Mathe-Modus. Caspar: Oh Gott, es ist weniger. Knapp eine Million weniger. Eine Milliarde weniger. Elli: Ja, ein bisschen mehr als eine Milliarde sogar. Caspar: Eine Million und eine Milliarde. 1,05. Elli: Ja, genau. Caspar: Vielleicht sollte ich heute nochmal was mit. Elli: Da gab es einen Schub. Und tatsächlich auch spannend, das Ganze ist frei zugänglich über GitHub. Caspar: Ich wollte gerade fragen, kann ich mir das für die nächste Softwareprojekt, was ich vorhabe, herunterladen? Elli: Ja, du kannst es mir herunterladen, weiß ich nicht, aber du kannst darauf zugreifen. Genau, über GitHub und den Medienserver der TU München. Was man natürlich gucken muss, wenn man von 1,7 Milliarden Gebäude auf 2,75 Milliarden plötzlich kommt. Die wurden jetzt nicht alle plötzlich gebaut, sondern da gab es einfach auch große Lücken in der Erfassung. Unter anderem aus Regionen in Südamerika und auf dem afrikanischen Kontinent. Und man hatte auch so ein bisschen das Problem, dass Städte halt deutlich besser erfasst waren als zum Beispiel Häuser in ländlichen Gebieten. Caspar: So wie bei 3D-Karten ja zum Beispiel bei den großen Anbietern wie Google oder Apple-Karten ja auch der Fall ist, dass man in den Städten oft zum Beispiel sowas wie Streetview hat und auf dem Land manchmal dann einfach nicht. Elli: Genau. Stella: Und warum haben wir uns dafür entschieden, das jetzt als gute Nachricht auszuwählen, als unsere Good News der Woche? Naja, weil es eine Spannend ist als Grundlage für bessere Städte und Baubeplanung, aber natürlich auch in dem Bereich Klimaforschung, auch was bedeutet, wie erhitzen sich unsere Städte etc. und natürlich auch Forschung zu Wohnverhältnissen und zum Thema Armut und Reichtum. Elli: Genau, da werden sich dann zum Beispiel so Fragen gestellt, wie viel Platz hat denn eigentlich eine Person im In einer Stadt zum Beispiel, wenn man sieht, da sind ganz, ganz viele Gebäude mit sehr vielen kleinen Wohneinheiten und so weiter und das ist alles dicht gedrängt. Platz ist ja auch teilweise ein Statussymbol. Also es gibt Gegenden, da muss man sich den Platz kaufen können. So an einem See zum Beispiel oder so, wenn du da ein großes Grundstück hast, dann könnte man darauf schließen, dass du entweder gut geerbt hast oder gut Geld hattest, dir das zu kaufen. So, übrigens muss man dazu sagen, diesen See könnte man jetzt nicht so besonders idyllisch da darstellen, so wie man das vielleicht in einem kleinen Computerspiel hat. Ein Großteil der erfassten Gebäude ist vereinfacht, dreidimensional erfasst, aber das Gute ist, Grundform und Höhe sind dargestellt eben in dieser vereinfachten Form und das Es ist jetzt nicht das Detailreichste, man sieht jetzt nicht den See und den Busch, aber dafür lassen sich diese 3D-Modelle dann gut für Berechnungen und auch für große, umfassende Berechnungen benutzen. Wenn man jetzt das komplexer darstellen würde, dann würde das irgendwann die Kapazitäten von so Rechenmodellen sprengen. Caspar: Man muss ja auch irgendwo Abstriche machen. Dankeschön, das war das Wort, was ich suchte. Muss man ja machen, weil wie du sagst, sonst wird es ja überhaupt nicht mehr händelbar. Stella: Tolle Überleitung zum Aber. Wenn, das haben wir natürlich auch mitgebracht. Das Ganze basiert auf Satellitenbildern von 2019. Also es ist jetzt nicht zu 100 Prozent aktuell. Elli: Genau, die Problematik, du hast schon gesagt, Caspar, das ist nichts, was man an einem Wochenende mal schnell baut, so eine Karte. Dementsprechend ist eben der Prozess ein langwieriger gewesen und das hat man ja öfter bei Forschung, dass die leider nur so ein bisschen den Blick zurückwerfen kann und nicht komplett immer auf dem neuesten Stand sein muss, weil bis man dann mal was erforscht hat. Aber trotzdem ist das eine spannende Grundlage für eben diverse weitere Forschungsprojekte eben in den Bereichen, die du schon gesagt hast, Sella. Also Klima, Städtebau, Wohnraumgestaltung, wie kann man das in Zukunft irgendwie sinnvoll machen? Was kann man sich aus den unterschiedlichsten Regionen zusammenklamüsern an guten Ideen? Und dafür ist es eben eine coole Sache, gerade auch, weil es eben frei zugänglich ist, auch für andere Forschende. Caspar: Gut, dann gehe ich mir den Trailer jetzt nochmal anhören. Stella: Passbar. Elli: Ich gehe den jetzt nochmal verarbeiten. Caspar: Du gehst den verarbeiten. Elli: Genau, und ich mache schon mal das Türchen auch fertig, was ihr dann morgen zu hören bekommt. Caspar: Ach, bist du morgen dran? Elli: Ja. Caspar: Okay, cool. Ich glaube. Ich glaube. Stella: Jetzt guckt ihr mich beide Fragen an. Elli: Wir haben eine Tabelle dafür. Naja, entweder ihr hört mich oder Stella morgen. Stella: Nein, also ich kann sagen, Moment Leute, ich habe es, gebt es mal eine Sekunde, mich hört ihr morgen nicht. Aber stattdessen hört ihr Caspar. Caspar: Ja, ich weiß auch schon damit. Stella: Darf ich auch das Thema auch schon sagen? Nein, noch nicht. In Ordnung, das ist eine Überraschung. Das ist ein Adventskalender, den macht man ja auch erst am Tag. Caspar: Ich wollte gerade sagen, da mache ich einen Tag vorher auf. Elli: Sorry, ihr könnt auch nicht Caspar schütteln und hören, was vielleicht drin sein könnte. Caspar: Also ihr nicht, ihr zwei könntet. Aber wir machen jetzt ganz schnell Schluss und ich düse hier ganz schnell ab, damit ihr mich nicht noch schüttelt. Es war mir eine Freude. Hört weiter in den Adventskalender und wir hören uns nächste Woche wieder. Stella: Bis dahin. Caspar: Tschüss. Jingles: Das war's schon wieder für diese Woche. Folgt oder abonniert uns gerne in eurer Podcast-App und lasst uns dort eine Bewertung da. Das hilft uns sehr. Bis zum nächsten Mal.
silicon-weekly.de
December 10, 2025 at 11:15 PM
Episode 73: Drei Jahre ChatGPT – Zwischen Hype und Alltag
Am 30. November 2022 veröffentlichte ChatGPT das Modell 3.5 und löste damit einen nie dagewesene KI-Boom aus. Wir nutzen den Anlass um einen Blick zurück zu werfen und uns unter anderem zu Fragen was denn in diesen drei Jahren wirklich passiert ist und wo wir beim Thema KI stehen. Inklusive einem kleinen Ausblick auf die Zukunft. Außerdem sprechen wir über LKW-Fahrer im Homeoffice, welches Jobangebot euch die ESA und das DLR machen und wieso Digital Detox über die Feiertage doch eine gute Idee wäre. **Links zur Episode** * Den Link zur Bewerbung beim DLR findet ihr hier ### Die mit Flux 2 Pro generierten Bilder ### Transkript der Episode _Das Transkript wird automatisiert erstellt_ Stella: Ihr habt es gehört, wir sind im Weihnachtsmodus bei Silicon Weekly, beziehungsweise im Vorweihnachtsmodus. Schön, dass ihr wieder eingeschaltet habt zu unserem Türchen Nummer 4 und da bekommt ihr uns zu dritt in einer regulären Folge. Wir haben viele Tech News dabei, die mal so gar nicht weihnachtlich sind. Wir haben natürlich einen Input, eine gute Nachricht. Es ist für alles gesorgt. Und wer sind wir? Das ist einmal mein Kollege Caspar. Caspar: Hallo Stella. Stella: Und natürlich ist auch Elli dabei, sonst wären wir ja nicht vollständig. Elli: Hallo ihr beiden und hallo ihr da draußen. Stella: Vielleicht habt ihr da draußen, ich habe es gerade jetzt gesehen, kurz bevor wir aufgezeichnet haben, Spotify rappt ist draußen. Ich weiß, das wird für gemischte Gefühle sorgen, wahrscheinlich auf Social Media. Da haben wir heute auch noch nie News zu, zu Social Media. Ist wahrscheinlich wieder alles voll mit Spotify. Ich habe natürlich bei mir auch schon geguckt, wer da in den Top-Listungen ist. Caspar, du auch? Caspar: Ja, ich habe direkt schon gedacht, okay, jetzt kann ich wieder für drei Wochen Instagram ausmachen und einfach nicht mehr reingucken, weil alle jetzt ihr Rap teilen. Ich nutze Apple Music, da habe ich das auch schon gesehen. Und ich finde die Charts wie jedes Jahr seltsam. Also ich weiß, dass ich mehr Musik gehört habe, das sagt man ja. Aber mit den KünstlerInnen, die dort angezeigt werden, mir war nicht bewusst, dass einige davon sehr häufig gehört wurden und andere nicht. Aber das ist wieder dahingestellt, Was ich aber in diesen Spotify-Rap-Geschichten ganz spannend finde, in dieser Spotify-Rap-Geschichte werden auch die Podcasts dargestellt. Vielleicht gibt es ja den ein oder anderen, wo wir da auftauchen in den Podcast-Charts bei dem eigenen Rap. Das könnt ihr uns ja gerne mal bei Instagram schicken, das würde uns freuen. Stella: Das ist ein bisschen ärgerlich. Mit unserem Adventskalender sind wir jetzt zwangsläufig, wenn ihr immer fleißig einschaltet, ja häufiger bei euch dabei. Aber das fließt jetzt nicht in die Statistik. Caspar: Das fließt nicht mehr mit rein. Ich habe irgendwie gelesen, ab Mitte Oktober, Ende Oktober hört Spotify auf mitzuzählen, damit sie die Raps quasi vorbereiten. Ob das stimmt, weiß ich nicht. Stella: Das würde einiges erklären. Elli, hast du auch schon reingeschaut? Elli: Ich habe noch nicht reingeschaut. Ich weiß, dass ich mal über den Zeitraum geschrieben habe, aber ich kann es gerade nicht mehr aus den Tiefen meines Gehirns rauskratzen, wie lange das ermittelt wird. Genau, aber mein Spotify hat mir auch noch keinen Ping gegeben. So, hallo, bitte, hier, möchtest du wissen, ob du eine Pink Pop Pilates Princess bist oder doch irgendwas anderes? Stella: Diese Kategorien, also bei mir wurden so Club-Zugehörigkeiten quasi angezeigt und welche Rolle man im Club hat. Aber bevor wir abdriften, wir reichen einfach nächste Woche in den Updates nach, wann dieser Spotify-Zeitraum ist, wenn alle schon die Krise gekriegt haben von diesen ganzen Spotify-Top-Listen, die überall rumgeistern werden und machen heute erstmal die Updates, die wir auch wirklich vorgesehen haben. Eine flotte Nachricht aus der deutschen KI-Welt. Es geht nämlich um Flux 2. Caspar: Ich wollte gerade sagen, deutsche KI-Welt. Caspar. Elli: Ja, die gibt es. Im Schwarzwald gibt es die unter anderem. Also, wir haben ja die letzten Wochen über Bildgeneratoren gesprochen. Elli: Also Google und Nano-Banana. Also bei mir im Google-Konto ist Nano-Banana auch sehr präsent. Google möchte immer gerne, dass ich das benutze. Und ich möchte es nicht benutzen. Und jetzt gibt's eine neue Version aus dem Schwarzwald, nicht von Google, sondern von Black Forest Labs. Und das ist eben Flux 2. Jetzt ist so ein bisschen wie bei Nano Banana zum Beispiel das Thema Schrift soll da verbessert worden sein bei Flux 2. Und dann ist auch so die Idee, konsistente Charaktere und Stile über mehrere Bilddurchläufe, also dass man wirklich an einem Bild immer wieder quasi arbeiten kann und nicht mit jedem Prompt kriegt man plötzlich ein völlig neues Bild ausgespuckt, und auch Lichtverhältnisse sollen realistischer werden. Fand ich ganz spannend, weil das ja teilweise doch auch noch so ein Aspekt ist, wo ExpertInnen dann genauer hinschauen, um rauszukriegen, ob ein Bild KI generiert ist oder nicht. Also auch da möchte man jetzt eben doch nochmal schrauben. Das Spannende an Black Forest Labs ist, so als Unternehmen, das Ganze ist mit einem Open-Core-Ansatz. Wir gehen jetzt nicht im Detail drauf ein, was das bedeutet, aber mal so viel, Diese Modelle von Black Forest Labs, die können auch auf eigener Infrastruktur gehostet werden bei Bedarf. Also man muss das Ganze nicht in der Cloud machen. Stella: Und Elli und Caspar, die haben das Ganze auch ausprobiert. Also teilt doch gerne einmal, was eure Erfahrungen sind. Vielleicht vorweg, ohne Anmeldung funktioniert das nicht, aber es gibt eben einen kostenfreien Test. Caspar, wie sieht es aus? Was waren so deine Erfahrungen? Caspar: Tatsächlich ist es so, dass jetzt zum Beispiel Schrift sehr gut funktioniert. Ich habe ein Podcaststudio generieren lassen, wo ich gesagt habe, da soll hinten Silicon Weekly stehen. Das wäre mit dem älteren Flux-Modell teilweise noch ein Problem gewesen, weil da Buchstaben vertauscht gewesen wären. Das hat jetzt deutlich besser funktioniert. Es steht da fehlerfrei. Ich habe auch ein paar verschiedene Prompts ausprobiert. Das wirkt alles ein bisschen natürlicher. Aber ich würde aber sagen, im direkten Vergleich mit aktuellen anderen Bildmodellen ist es jetzt nicht so, dass wir da eine Revolution hätten. Es kommt näher ran an sowas wie Nino Banana, aber überholt zum Beispiel, würde ich sagen, hat es das nicht. Indy, konntest du es ausprobieren? Elli: Ähm, jein. Ich habe versucht, mich anzumelden und bin dann erstmal gescheitert. Es könnte auch daran gelegen haben, dass ich im Zug saß, als ich es ausprobieren wollte. Ich bin soweit gekommen zu dem Teil, wo Flux direkt mal fragt bei der Anmeldung, wofür man eigentlich hauptsächlich Bilder generieren will. Also zum Beispiel Social Media, private Projekte oder zum Beispiel auch Produktprototyping und dann kriegt man vermutlich so ein paar entsprechende Tools ausgespielt. Ich habe mir aber die Bilder mal angeguckt, die du dann gemacht hast, Caspar, und finde schon, also gerade für so Science-Fiction-Motive, Comic und so weiter, ist es super nutzbar. Also da finde ich, ist der Unterschied nicht möglich. Bedeutend zu anderen großen Modellen. Bei den Fotomodellen oder so, was du gemacht hast, also Caspar hat zum Beispiel ein Bild oder eine Bildereihe gemacht, die so ein bisschen nach einem Fashion-Shooting, Mode-Shooting ausgesehen hat. Und wenn man so dran vorbeigehen würde, ohne genau hinzusehen, würde ich schon sagen, man könnte das für echt halten. Wenn man dann in die Details guckt, dann sieht man so ab und zu diesen Weichzeichner, so an den Linien, zum Beispiel an der Hand am Arm und sowas. Und könnte schon drauf kommen, dass es entweder schlecht gephotoshoppt oder doch KI generiert ist. Caspar: Ich überlege gerade, wir können auf der Webseite, glaube ich, auch eine Bildergalerie machen. Ich würde die da einfach mal reinpacken. Also wenn euch interessiert, über was wir gerade redet haben oder was für Fähigkeiten bei Flux 2 rumkommen, dann schaut mal bei uns auf der Webseite www.sidikon-weekly.de und klickt mal dem Artikel zur aktuellen Folge an. Dann findet ihr dort die Beispiele in der Bildergalerie und könnt mal reingucken. Stella: Schaut da gerne vorbei und jetzt haben wir noch ein zweites Update für euch. Es geht nämlich um das Thema autonomes Fahren in Deutschland und bisher ist es da eben eigentlich so, da muss immer jemand am Steuer sitzen, um bei Bedarf einzugreifen. Jetzt gibt es aber was Neues. Und zwar, haltet euch fest, die Straßenverkehr-Fernsteuerungsverordnung ist in Kraft getreten. Caspar: Können wir das nochmal haben? Stella: Soll ich es nochmal? Ich habe noch was anderes mitgebracht. Fernlenkverordnung wäre die Alternative bestossen schon im Juli 2025. Und jetzt geht es los. Ich habe auch eine Abkürzung. STVFSV. Caspar: Straßenverkehrsfernsteuerungsverordnung ich habe selten ein so deutsches Wort gehört sehr schön STV. Elli: FSV klingt so ein bisschen nach einem Fußballverein finde ich. Caspar: Stimmt. Stella: Ist kein Fußballverein und es wird auch, glaube ich, im nachfolgenden Teil, zeigt sich, wie schön und wie genau die deutsche Sprache sein kann. Es geht nämlich um Teleoperation. Also vereinfacht gesagt, Autofahren aus dem Homeoffice könnte so möglich werden. Was dabei wichtig ist, eine Person steuert immer das Auto, aber es gibt keine Kontrolle über eine ganze Fahrzeugflotte. Also es bedeutet, es kann jetzt nicht so irgendwie jemand vor seinem Bildschirm sitzen und mehrere Pkw steuern, sondern immer nur ein Wagen. Falls ihr denkt, ja mit mehreren Pkw, das ist doch eh irgendwie Science Fiction, ist es nicht. Das gibt es beispielsweise schon in China und den USA. Elli: Und das ist tatsächlich auch eine spannende Frage, gerade wenn man so in den Industriebereich geht. Wir gucken gleich nochmal, wofür das überhaupt sinnvoll sein könnte. Aber es gibt zum Beispiel jetzt auch schon Leute, die sagen, okay, dieses 1 zu 1 ist einfach wirtschaftlich noch relativ schwierig, das attraktiv irgendwie zu machen. Aber so diese Fahrzeugflottenbetreuung, wie sie woanders schon gibt, die ist wohl ein bisschen interessanter so aus ökonomischer Sicht. Und deswegen ist das Ganze auch erstmal eine fünfjährige Testphase, dieses One-to-One-Ding und danach guckt man weiter. So, fragt man sich natürlich, warum sollte jemand ein Auto fernsteuern, wofür soll das gut sein? Die Idee ist zum Beispiel einerseits so Robotaxis ein bisschen unter die Arme zu greifen quasi, aber auch für einen Lieferverkehr könnte es interessant sein, zum Beispiel, wenn ein LKW-Fahrer aus dem Homeoffice, ich nenne das jetzt einfach mal so flapsig, den LKW abgestellt hat. Caspar: Endlich Homeoffice für LKW-Fahrer. Elli: Den LKW abgestellt hat und dann wird der entladen. Derweil könnte die Person ja schon ein anderes Fahrzeug wieder steuern. Das heißt, solche Zeiten könnte man zum Beispiel überbrücken. Oder auch die Idee beim Carsharing gibt es, dass man normalerweise, wenn man Carsharing macht, muss man ja zu einem Gewissen vertreten. Ein Abstellort, wo man das Auto sich dann abholt. Und da ist eben die Idee, man könnte als Carsharing-Anbieter dieses Auto quasi direkt beim nächsten Kunden vor die Tür fahren lassen von jemandem, der das halt beruflich im Office macht. Stella: Es geht ja auch darum, wer kann das denn jetzt eigentlich in dem Sinne machen. Das ist nämlich jetzt nicht so, dass jeder quasi Fernlenker sein kann. Generell gilt, der Fernlenker ist erstmal der Fahrzeugführer. Und da gibt es auch bestimmte Voraussetzungen, damit man eben quasi als Teleoperator tätig sein kann. Also man muss mindestens 21 Jahre alt sein, einen Führerschein seit mindestens drei Jahren haben. Und es braucht auch eine spezielle Schulung plus oder mehrere Schulungen sogar und nicht mehr als drei Punkte in Flensburg. Caspar: Cool, ich könnte Teleoperator werden. Schön. Stella: Die Schulungen fehlen dir bestimmt noch. Caspar: Stimmt, die Schulungen fehlen mir, ja. Stella: Und wir haben jetzt auf jeden Fall die Updates Extended quasi gemacht in dieser Folge. Weshalb ich sagen würde, Leute, habt ihr Lust auf ein WTF? Das bringt uns weg vom Autofahren. Es bringt uns quasi, naja, es passt auch nicht in den Weltraum. Zumindest jetzt noch nicht. Ich habe eine Überleitung. Caspar: Ich habe eine Überleitung. Stella: Okay, hau raus. Caspar: Und zwar hätte ich ja eben schon gesagt, ich könnte Teleoperator werden, wenn ich die Schulung habe. Und im WTF geht es um ein anderes Jobangebot, wo wir auch mal gucken könnten, ob ich das machen könnte oder nicht. Stella: Naja, bei diesem Jobangebot, um das wir jetzt reden, wir haben sogar zwei Stränge noch mitgebracht, aber das eine bietet 23.000 Euro für 100 Tage, allerdings in Isolation. Caspar: Was heißt denn Isolation und für wen und was genau muss man da machen? Das wäre noch ganz wichtig zu wissen, bevor ich das Jobangebot annehmen würde. Stella: Gute Fragen. Fangen wir erstmal so an. Also es geht um die Europäische Raumfahrtbehörde, die ESA und das Deutsche Zentrum für Luft- und Raumfahrt, DLR. Und die suchen aktuell ProbandInnen für die Studie Solis 100. Und das Ganze bedeutet, dass sie sechs Menschen finden wollen, die im Frühjahr 2026, also gar nicht so lange mehr hin, 100 Tage in einem Kölner Labor leben. Und sie sollen da eben abgeschottet sein von der normalen Umwelt in einer simulierten Raumstation. Es soll dann einen festen Tagesablauf geben, sprich man soll Sport machen, man muss die Raumstation versorgen, sich um Ernährung kümmern, um Reinigung, quasi so eine Art WG unter besonderen Umständen. Caspar: Ne, und alles, was bei so einer Raumstation halt auch anfallen würde. Was müsste ich denn mitbringen als Voraussetzung? Also bis jetzt klingt es doch einigermaßen so, dass ich sagen würde, vielleicht ist das für 23.000 Euro sogar spannend. Elli: Ich nehme euch mal mit durch die Checkliste. Seid ihr zwischen 25 und 55? Caspar: Ja, check. Stella: Check. Elli: Okay, dann, das würde noch gehen. Habt ihr einen Hochschulabschluss? Stella: Yes. Caspar: Zwei. Elli: Okay, zwei, zwei, ja. Sind eure Englischkenntnisse sehr gut? Stella: Führe ich so. Ja, Caspar. Ja, doch. Elli: Okay, gut. Und dann ist noch die Frage ... Seid ihr körperlich fit, Freunde? Caspar: Was heißt das? Stella: Mehr geht immer. Ein Marathon würde ich jetzt nicht laufen. Elli: Ich vermute mal, dass man da irgendwie einen Fitnesstest durchlaufen muss im Vorfeld. Stella: Also einen Cooper-Test, erinnert ihr euch noch? Aus der Schule? Elli: Oh Gott. Oder sowas wie bei der Polizei, so einen Sporttest. Caspar: Ein Aufnahmetest, ja. Elli: Naja, also daran könnte es im Zweifel scheitern, bei uns zumindest. Die Bewerbung. Ansonsten, wenn ihr euch da draußen jetzt wieder erkannt habt und gedacht habt, ja, noch Es gibt noch ein zweites Problem. Ach so. Caspar: Neben der körperlichen Fitness. Wenn wir drei jetzt da einziehen, wer macht denn dann die 100 Tage den Podcast? Weil wir werden ja dann isoliert. Stella: Könnten wir den Podcast exklusiv aus diesem Projekt machen? Wobei ich muss sagen, 100 Tage Isolation, das wäre überhaupt nicht meins. Also Leute, bewerbt euch gern, wenn ihr wollt. Bei den 100 Tagen, das meine ich. Caspar: Okay, dann gut. Stella: Ich bin an eurer Stelle nach außen. Elli: Ich muss zugeben, ich habe kurz gezuckt. Bis zum 12. Dezember kann man sich noch bewerben. Caspar: Da gibt es eine entsprechende Website dazu. Wollen wir die Link in die Show Notes packen? Elli: Ja, können wir mal machen. Caspar: Okay, falls Leute dann jetzt plötzlich aufhorchen und sagen, wo ist das? Ich google schon. Stella: Vielleicht sollten wir aber noch einmal sagen, warum man das Ganze eigentlich macht. Es gibt nämlich auch ein Ziel und das Ganze soll helfen, eben AstronautInnen auf Langzeitaufenthalte vorzubereiten, also die Beobachtungen, die dort gemacht werden. Und es gab auch schon mal einen ähnlichen Versuchsaufbau. Allerdings nur mit acht Tagen Isolation. Vielleicht hätte ich das erst mal vortesten müssen damals in dieser Gruppe, um zu entscheiden, ob ich, weil ne, 100 Tage, das wäre es bei mir persönlich nicht. Caspar: Acht Tage sind easy, sage ich jetzt so. Es gibt aber noch einen zweiten. Elli, wir haben gerade gesagt, es sind zwei Jobs. Bei dem zweiten, muss ich sagen, wäre ich eher raus. Das klingt schon wieder nach nichts für mich. Elli: Ja, also ich muss sagen, bei der Isolation, man ist ja dann auch mit anderen Menschen zusammen. Also man ist ja nicht komplett alleine, sondern man ist ja doch in so einem kleinen Team auf der Raumstation. Aber beim zweiten Versuch, da habe auch ich nicht mal gezuckt, weil das klingt für mich ganz, ganz strabaziös. Stella: Es geht um 60 Tage Bettruhe. Da werden zwölf Teilnehmende gesucht. Jetzt muss man aber auch sagen, das sind jetzt keine normalen Betten, sondern welche, die sind zum Kopf hin um sechs Grad nach unten geneigt. Caspar: Der Kopf liegt tiefer. Stella: Genau, ich stelle mir das so ein bisschen, kennt ihr das beim Zahnarzt, auf dem Zahnarztstuhl? Caspar: Ja, genau, wenn man so nach hinten geklappt wird. Stella: Genau, so stelle ich persönlich mir das vor, warum das Ganze die Idee ist zu testen, welche körperlichen Auswirkungen von Schwerelosigkeit, ja, was dagegen hilft. Weil, was passiert? Naja, die Körperflüssigkeiten in diesen schlafenden Betten da, die wandern ja dann auch Richtung Kopf. Caspar: Das passiert in der Schwerelosigkeit halt eben auch, dass das dann tendenziell, wenn keine Erdanziehungskraft mehr da ist, pumpt das Herz einfach mehr Blut in den Kopf, als wenn wir eben auf der Erde stehen würden und deswegen simulieren sie das in diesen 60 Tage Bettruhe, aber 60 Tage am Bett liegen, also ich bin ein Couch-Potato, das gestehe ich, aber 60 Tage halte ich glaube ich nicht durch. Stella: Was passiert denn dann auch mit der ganzen Muskelmasse, die abgebaut wird? Caspar: Ja, das ist glaube ich Teil des Versuchs, also wirklich mal zu gucken, Auswirkungen von Schwerelosigkeit, naja. Elli: Ja, wir haben an der Stelle auch nicht rausgesucht, was man dafür dann für eine Entschädigung bekommen würde. Vielleicht kriegt man hinterher noch so ein Fitnesstraining umsonst mit. Damit man wieder zu Rüsten kommt. Caspar: Ja, ja gut, also. Stella: Verzweifelter Lacher. Caspar: Wir überlegen uns das mit der Raumstation und den Rest überlassen wir anderen Leuten. Und ja, vielleicht sollten wir jetzt zur Geburtstagsfeier übergehen. Stella: Das ist aber auch keine richtige Feier, aber du hast recht, es ist Zeit für unseren Input. Wir nehmen jetzt ehrlich gesagt eher den Geburtstag in Anführungszeichen zum Anlass, um uns mal kritisch nochmal mit einem Thema auseinanderzusetzen. Und wer jetzt dieses Geburtstagskind in Anführungszeichen ist, kein Mensch, sondern ein Programm. Und zwar ChatGPT. Am 30. November 2022 wurde das Ganze nämlich von OpenAI veröffentlicht. Caspar: Genau. Und du hast es auch schon gesagt, Geburtstag passt insofern auch nicht, weil das, was 2022 veröffentlicht wurde, war nicht die Geburtsstunde von OpenAI. Da hat niemand einen großen roten Knopf gedrückt und plötzlich war die Firma und das Sprachmodell da. Das sieht man auch daran, dass zum Beispiel GPT 3.5 damals veröffentlicht wurde und nicht etwa GPT 1.0 oder gar 0.1, sowas wie eine Beta-Version. Was wirklich neu war, war, dass man jetzt plötzlich so ein KI-Modell mal ausprobieren konnte. Und eigentlich ist das Ganze, dieses ganze künstliche Intelligenz zwar jetzt seit drei Jahren ein riesiges Thema. Und da wollen wir auch gleich mal ein bisschen drauf gucken und uns das anschauen, die vergangenen drei Jahre JetGPT. Aber es ist halt eben eigentlich auch keine neue Erfindung, weil eigentlich ist alles rund um künstliche Intelligenz, neuronale Netze und so rund 75 Jahre alt. In den 50er Jahren gab es die ersten wissenschaftlichen Versuche. Dann gab es zum ersten Mal auch so das Label künstliche Intelligenz. Und OpenAI selber gibt es auch schon seit 2015. Deswegen auch da kein Geburtstag. Wurde übrigens gegründet von einem gewissen Sam Altman, der immer noch bei OpenAI ist und einer anderen Internetgröße, sage ich mal, um es relativ neutral auszudrücken, Elon Musk. Der war nämlich auch Gründungsmitglied, hat die Firma aber verlassen, bevor sie so durch die Dicke gegangen ist ab 2022. Stella: Also wir gehen jetzt auch nicht auf alle verschiedenen KI-Systeme ein oder auf die Entwicklung, sondern gucken uns wirklich Chatschipiti an. Und warum machen wir das? Caspar, du hast es angerissen, weil die ersten LLMs, die waren eben einfach der Öffentlichkeit gar nicht zugänglich. Also Google hat damals ja durchaus sein System immer mal wieder in Präsentation gezeigt, was sie damals hatten, aber immer nur ausgewählten Personen. Und das ist ja auch das Besondere bei ChatGPT, weshalb es auch so viel Aufmerksamkeit seitdem erfährt. Es ist eben das erste Mal, dass so ein KI-Modell auch wirklich so leicht, so niedrigschwellig für die Öffentlichkeit zugänglich geworden ist. Elli: Ja, wir reisen mal zurück. Ich habe mal die Kisten im Archiv abgestaubt. Uns als Dreier-Kombo gab es ja da schon. Allerdings nicht hier bei Silicon Weekly, sondern noch im T3N-Catch-Up. Und da habe ich mal die Folge aus dem Dezember rausgesucht mit dem schönen Titel Dicke kleine Autos. Und da sprachen wir in der Kategorie Netzfundstück über dieses neue Ding, über Chat-GPT. Ja. Caspar: Es ist schon irgendwie niedlich, dass wir das zum Netz für ein Stück erklärt haben. Gut, aber damals konnten wir es noch nicht so richtig absehen. Stella: Was haben wir denn damals eigentlich, vielleicht für diejenigen, die die Folge auch nicht gehört haben, was haben wir denn da eigentlich gemacht? Elli: Also unsere Folge ist gut gealtert. Caspar, du hattest damals Fragen gestellt an ChatGPT und damals konnte ChatGPT auch noch nicht sprechen. Wir haben dann die geschriebenen Antworten von Google wiederum vorlesen lassen. Also, das war eine ganz wilde Bastelei damals noch. Und tatsächlich hatten wir zwei Fragen, die dann auch richtig beantwortet wurden. Und in der dritten gab es aber dann schon einen Fehler quasi, den die KI gemacht hat. Da ging es darum, zu wem, also was T3N eigentlich ist, also unser damaliger Arbeitgeber. Und da wurden wir einem Verlag zugeordnet, zu dem wir eindeutig nicht gehört haben. Ich finde, wir haben ein recht gutes Fazit dann gezogen damals, weil wir haben schon damals gesagt, der Faktencheck ist wichtig, weil das klingt alles sehr plausibel, was da rauskommt. Die Gesellschaft muss sich Gedanken um Trainingsdaten machen und wo die eigentlich herkommen. Und wir sollten vielleicht auch überlegen, wie man KI-Inhalte kennzeichnet und dass man sie kennzeichnet. Naja, da kommen wir gleich nochmal drauf. Stella: Wir gucken mal auf die Basis, nämlich diese ganzen technologischen Entwicklungen, die wir jetzt ein paar Mal angerissen haben. Es ging ja damals los mit GPT 3.5. Spoiler, war bestimmt nicht die erste Variante, Caspar, das hast du ja schon gesagt. Caspar: Ja, genau. Und die Halluzination, die hat Elli schon erwähnt, die sind wir damals, die sind wir ja damals in der dritten Frage direkt auf, haben wir aufgedeckt. Was auch noch ein Problem war, war das sogenannte Kontextfenster und die Token-Grenze. Das beschreibt bei Sprachmodellen, großen Sprachmodellen im Grunde nur, wie viel die verarbeiten können und wie viel die sich merken können. Das war damals auch noch relativ gering. Also man ist da relativ schnell, wenn man Dokumente hochgeladen hat, an eine Grenze gekommen. Das zum Beispiel hat sich aber stark verändert. Also wir können jetzt viel längeren Kontext, wir können viel mehr Tokens dort reinpacken. Multimodalität, also die Sprachmodelle, wenn ich mit Chat-GPT schreibe, das kann Bilder erkennen. Das ging am Anfang auch überhaupt nicht. Das war ein reines Sprachmodell. Jetzt kann es auch Bilder generieren innerhalb dieser Sprach-Chat-Fensters. Das ging halt eben auch nicht. Besseres Reasoning. Dann gibt es einen Agentenmodus, der selber losläuft. Den haben vielleicht viele von euch auch schon mal ausprobiert. ChatGPT hat einen Internetzugriff bekommen im Laufe der drei Jahre, sodass es selber Informationen raussuchen kann, wenn es die nicht selber in seinen Trainingsdaten hat. Das ist damals wahrscheinlich auch das Problem gewesen, warum unser Verlag damals nicht richtig genannt wurde, weil er schlicht und ergreifend in den Trainingsdaten nicht vorkam. Und die Halluzinationen sind ein bisschen weniger geworden, beziehungsweise haben sich etwas verschoben, unter anderem, wie gesagt, wegen diesem Internetzugriff. Weg sind sie aber nicht. Elli: Ja, und da kommen wir schon zu einem der Punkte, die weiterhin problematisch geblieben sind. Da gehen wir auch gleich nochmal drauf ein weiter. Ich habe auch so das Gefühl, die Halluzinationen, die sind jetzt eben eleganter verpackt und sie sind auch irgendwie ein Stück weit egaler geworden vielleicht oder sie werden halt in Kauf genommen. Also das war damals schon auch so, dass man einfach ganz viel rumprobiert hat und sich angeguckt hat. Und dann aber trotzdem war immer noch der Satz, ja, aber wir wissen ja, dass das Fehler macht. Und ich glaube, dieser Satz nutzt sich ab über die Jahre und wird, glaube ich, so ein bisschen teilweise wegignoriert. So, ja, wissen wir ja. Caspar: Ja, dieses Egaler ist, glaube ich, ein ganz wichtiger Punkt. Wir alle kennen ja inzwischen diese Google-KI-Zusammenfassung, die bei jeder Google-Suche inzwischen auftaucht. Ich glaube, außer im News-Bereich. Und die ist einfach, das ist jetzt eine persönliche Erfahrung und die mag nicht stimmen, die Zahl, aber ich würde sagen, in 50 Prozent der Fälle ist die falsch. Es ist Google aber einfach egal. Die wissen das, aber es ist ihnen egal. Sie machen es trotzdem, einfach weil sie die Technologie voranbringen wollen. Stella: Ich kann euch noch zustimmen, wobei ich glaube, es ist nicht nur egaler, sondern wir Menschen sind bequem und die KI-Nutzung ist immer alltäglicher. Elli: Und da greife ich eine Sache vor, die eigentlich noch ein bisschen später in unserem Skript steht. Aber Caspar, du hast das da so schön reingeschrieben. KI ist heute Alltag nach diesen drei Jahren. Und dazu gehört unter anderem auch, dass gefühlt jedes Programm irgendwie, was online läuft, KI benutzt. KI taucht in Serien auf, in Filmen, in Comedy. Also es ist viel normaler geworden irgendwie. Caspar: Das passt sehr gut zu dem nächsten Punkt, weil wir nämlich den AI oder KI-Wettlauf als nächstes hier im Doc stehen haben und der passt sehr gut dazu, dass das jetzt wirklich in jedem Programm inzwischen vorkommt. Im Silicon Valley gab es tatsächlich durch die Veröffentlichung von ChatGPT 3.5 ein richtiger kleines Beben im Valley, schlicht und ergreifend, weil plötzlich alle im Valley gemerkt haben, oh Gott, da rollt eine ziemliche Technologiewelle auf uns zu und wir müssen da mitmachen. Google haben wir ja eben schon gesagt, die waren mit BART auch schon dabei. Caspar: Allerdings war das alles nicht öffentlich zugänglich, es war nur intern und jetzt hat sie sich jetzt geändert, dass Google zum Beispiel mit Gemini inzwischen natürlich auch schon Modelle veröffentlicht hat. Entropic ist mit Cloud auf den Markt gekommen. Es gibt Open-Source-Modelle. Microsoft integriert verschiedene KI-Dienste in die eigenen Produkte und Sie haben es gerade schon gesagt, Eli, du auch, in jeder größeren Software-Plattform gibt es inzwischen KI. In Microsoft 365, in Google Workspaces, in Notion hat mich jetzt neulich KI wieder begrüßt. Adobe setzt KI an verschiedensten Stellen ein, Figma setzt das ein und diese Liste könnt ihr eigentlich unendlich verlängern, wenn ihr irgendwo einen Dienst habt, einen größeren, eine Plattform, dann ist da in der Regel inzwischen KI implementiert und das ist schon ein ziemlicher Hype-Train, der da losgelaufen ist. Und neben den großen Plattformen gibt es auch den Open-Source-Bereich, der sich ja im Grunde eigentlich seit drei Jahren aufgetan hat. Also zu nennen ist da zum Beispiel Lama oder Lama 2, das ist ein Open-Source-Modell von Meta. Mistral ist zu nennen, Quen Deep Seek, da haben wir ja auch mal drüber gesprochen, das ist ein chinesisches Modell. Caspar: Und früher war es ja so, dass Open Source oft so ein bisschen bei Software so ein, ja, es ist meistens ein bisschen hässlich, alles ein bisschen komplizierter und hinkt ein bisschen hinterher hinter kommerzieller Software. Das ist bei Open Source Sprachmodellen nicht unbedingt der Fall. Die können teilweise durchaus mithalten und sind vor allem, was zum Beispiel so lokal laufende Modelle betrifft, durchaus auch teilweise vorne. Also da im Bereich KI und künstliche Intelligenz hat sich Open Source durchaus einen Namen gemacht. Elli: Wir haben jetzt gesagt, es ist ein bisschen normaler geworden, aber es gibt natürlich trotzdem die ein oder andere Diskussion, die vor drei Jahren begonnen hat und immer noch geführt wird. Manche sind ein bisschen ins Hintertreffen geraten. Ich werfe jetzt einfach mal so ein bisschen ein paar Schlagworte in die Runde. Ihr habt sicherlich zu den meisten auch bei uns schon mal was gehört. Da ist zum einen die Frage der Arbeitsmarkt. Wie wirkt sich KI aus, auch auf unsere Produktivität? Machen wir jetzt bald alle nur noch ganz kreativen Shit damit, weil Chattipity oder KI an sich unsere administrativen Aufgaben übernimmt, die langweiligen, die drögen. Und wer wird vielleicht seinen Job durch KI verlieren. All sowas wird rauf und runter diskutiert, wurde es damals schon, wird es heute noch. Ja, ich glaube, mittlerweile sind einige auch so ein bisschen, haben sich wieder beruhigt und sind so auf dem Stand, naja, KI wird unsere Arbeit verändern, aber sie nicht unbedingt ersetzen. Das ist so eine Sache, die immer wieder zur Sprache kommt. Dann die Frage mit dem Bildungssystem, wie kann man jetzt überhaupt noch Leistung ab, messen oder Prüfungen. Wie funktioniert das eigentlich, wenn alle ja theoretisch KI benutzen können? Auch da wird weiterhin diskutiert, gerade was so den Bereich Forschung und Forschungsarbeiten angeht. Caspar: Dann so ein Thema, das auch immer noch nicht geklärt ist, ist das ganze Thema Desinformation. Was machen wir mit den ganzen KI-Inhalten im Netz? Es werden immer mehr, sie werden immer leichter generierbar. Über Fotos, Videos haben wir ja auch schon gesprochen. Dann ein großes Thema, was auch immer noch nicht endgültig geklärt ist, sich jetzt aber langsam in den Gerichten oder vor Gericht wiederfindet, sind die ganzen Fragen zur kreativen Urheberschaft, auch zu den Trainingsdaten. Wo kommt das her? Was wird dann benutzt? Es ist aktuell auch wieder ganz aktuell oder hochaktuell. Stichwort GEMA verklagt Open AI. Zum Thema Klagen muss man auch sagen, drei Jahre ChatGPT waren auch drei Jahre lang Rechtsgeschichte oder Dinge, die sich um das Thema Recht drehten. Wir haben ja ganz oft schon den EU-AI-Act behandelt. Der war vor der Veröffentlichung von ChatGPT überhaupt kein Thema. Wir haben ja Debatten über Copyright, Fair Use, Scraping, also wenn diese KI-Modelle loslaufen und alles im Internet quasi in sich aufsaugen, um damit trainiert zu werden. Wir haben Klagen von den New York Times versus OpenAI, wir haben die Autorenverbände, die gegen KI vorgehen. Also ich sage mal so ganz reibungslos und ohne Gerichte gingen diese drei Jahre nicht ab. Stella: Und ab und zu, vielleicht aber auch immer noch ein bisschen zu wenig, wird auch über das Thema Umwelt auch im Zusammenhang mit OpenAI, mit ChatGPT gesprochen, aber auch generell mit dem Thema KI. Denn diese ganze Rechenleistung, die wir da abrufen, wenn wir beispielsweise insbesondere Bilder generieren lassen, Musik entstehen lassen oder vielleicht mal wieder nicht wissen, was wir eigentlich heute Abend essen wollen und dann noch mal nachfragen, hallo, ich habe folgendes, was könnte man daraus kochen? Das braucht verdammt viel Energie. Also es braucht beispielsweise viel Wasser, aber auch viel Strom. Und Rechenzentren können so wirklich ein wachsendes Infrastrukturproblem sein. Also auf der einen Seite natürlich, auch wir haben ja hier im Podcast mehrmals schon darüber berichtet, dass neue Rechenzentren entstehen, auch hier in Deutschland. Auch wieder Thema digitale Souveränität, Unabhängigkeit, das ist auch wichtig, aber gleichzeitig ist es natürlich auch einfach für die Umwelt eine Herausforderung. Der Wasserverbrauch, der da für die Kühlung notwendig ist, der ist nicht ohne und generell also jede Anfrage, jede Query, die kostet einfach Energie. Und es gibt ja auch noch den Bereich Hardware, der hinzukommt, denn das Ganze muss ja auch vereinfacht gesagt auf verschiedenen Arten von Chips laufen. Wir haben über NVIDIA jetzt ein paar Mal gesprochen, auch über das Thema KI-Blase, was da mit reinspielt, wie die Firmen miteinander verbunden sind. Und dazu kommt ja auch noch dieser Trend zu spezialisierten Hardware, dass das alles immer gut natürlich auch zusammenpassen muss, je spezifischer dann auch die Anfragen werden. Caspar: Und zu den Nutzungszahlen, glaube ich, Elli, du warst es, hast du auch was mitgebracht, was OpenAI veröffentlicht hat. Die haben nämlich diese drei Jahre Jubiläum auch genutzt, um mal ein paar Zahlen irgendwie rauszuhauen. Elli: Das ist richtig, wobei die Zahlen schon aus dem September sind. Da hat OpenAI so ein bisschen eine Zusammenfassung veröffentlicht, wer nutzt uns wofür, so nach dem Motto. Und Chat-TPT laut OpenAI beantwortet pro Sekunde, haltet euch fest, 29.000 Anfragen in einer Sekunde. Also wenn ihr einmal kurz blinzelt, dann sind es wahrscheinlich schon doppelt so viel gewesen. Pro Woche. Hat ChatGPT 800 Millionen User. Und Deutschland belegt übrigens im weltweiten Vergleich Platz 4 bei der ChatGPT-Nutzung. Also wir sind fleißig mit dabei. Das hat OpenAI nicht in dem Report rausgebracht, sondern auf Anfrage von Heise beantwortet. Caspar: Wir waren mal auf Platz 2. Schade, dass wir auf Platz 4 abgerutscht sind. Elli: Weiß ich nicht. Wenn man jetzt so über die ganzen Kontroversen nachdenkt, weiß ich nicht, wie schade das ist. Caspar: Ja, und Energieverbrauch. Ich habe nämlich gerade bei den 29.000 Anfragen gedacht, meine Güte, was wird da pro Sekunde an Energie rausgehauen. Aber da wird ChatGPT oder OpenAI wahrscheinlich wenig zugesagt haben. Zum Schluss gucken wir nochmal drauf, was noch fehlt, was in den drei Jahren eigentlich zwischenzeitlich mal versprochen wurde, aber noch nicht da ist. Und wir wollen auch tatsächlich zum Schluss noch so einen kleinen Blick in die Kristallkugel wagen, auch wenn das immer schwierig ist. Lasst erstmal drauf gucken, was in den drei Jahren nicht passiert ist. Also ich habe schon erzählt, dass ChatGPT jetzt einen Agentenmodus hat. Also wenn ich ihm sage, dass es loslaufen soll, dass es selbstständig losläuft, einen kleinen Browser aufmacht und da mit der Maustür durch die Gegend fährt und Dinge anklickt. Aber wir sind weit davon entfernt, dass wir tatsächlich selbstständige, autonome Agenten haben. Das war relativ früh, nachdem ChatGPT veröffentlicht wurde, in dieser ganzen Hype-Welle direkt schon so ein Thema, dass ganz viele gesagt haben, oh, das kann jetzt bald alles ganz selbstständig. Das ist tatsächlich immer noch nicht so. Es gibt erste zaghafte Versuche, wie gesagt, diesen Agentenmodus, wenn man selber programmieren kann, kann man auch sowas wie erste kleine zaghafte Agenten bauen, die auf Knopfdruck oder auf Buffet loslaufen. Aber was immer noch nicht ist, dass man jetzt komplett selbstständige KIs hat. Kann man sagen, das ist vielleicht auch ganz gut. Aber wie gesagt, der Markt hat das eben noch nicht geschafft, das zumindest für den breiten Markt auch bereitzustellen. Stella: Das Einzige, was es gibt in die Richtung und ja auch zugänglich ist Atlas, also der KI-Browser von OpenAI mit ChatGPT. Da muss man aber auch sagen, Ihr seht dann quasi, wie so eine Maus, wir hatten es ja auch mal in einer der Folgen besprochen, über das Bild huscht und da werden dann Klicks gesetzt, einen Tisch reserviert etc. Aber das funktioniert nicht ohne den Human in the Loop. Also da gibt es einfach eine Grenze und da geht es nicht weiter. Caspar: Ja und du musst es eben anstoßen. Also so ein richtiger Agent wäre ja zum Beispiel, da gehen wir über auch zu dem zweiten Punkt, dass sowas wie persönliche KI-Assistenten fehlen. Also es wäre zum Beispiel so ein Agent, der weiß, wenn ich morgens aufstehe, weiß der von sich aus, was er mir zum Beispiel für eine Morgenszusammenfassung zusammenfasst. Also nach dem Motto Wetter von sich aus, weil er gemeint irgendwie oder er weiß im Kalender, dass ich irgendwo hinfahre, dann spuckt er mir schon mal aus, wie die Route aussieht. Also so ein proaktives Ding, das war ganz am Anfang so ein riesiges Thema und auch Apple hat so ein bisschen versprochen, vor zwei Jahren, dass Siri so ein bisschen in die Richtung gehen wird, das ist aber schlicht und ergreifend bisher einfach nicht passiert. Die Technologie ist nicht weit genug und auch da werden wir jetzt nicht davon reden, dass das morgen eintritt, das wird auch noch ein bisschen dauern, dass das mal kommt, aber ich würde sagen, technisch wird das irgendwann mal möglich sein. Stella: Und was technisch auch immer noch besser wird, ist das Thema Bild- und Videoerstellung, also Generierung einfach von dieser Art von Content, ist aber auch immer noch sehr teuer, sehr ressourcenhungrig und die Qualität ist auch sehr unterschiedlich. Also klar, es wird immer realistischer enthalten, was auch wieder, wenn wir auf das Thema Fake News gucken, ein Problem ist, eine gesellschaftliche Herausforderung, über die wir sprechen müssen, wie wir damit umgehen möchten. Aber es ist auch so, also mir wäre, mir ist nicht bewusst, dass es komplett KI-generierte Kinofilme beispielsweise gibt. Also diese Leistung ist bisher nicht möglich. Caspar: Nein, es sind immer kurze Videoschnipsel, die manieren kann. Die kann man natürlich zu einem längeren Video zusammenschneiden, aber wir reden hier von fünf, acht, zehn Sekunden, die so eine KI am Stück generieren kann. Und das wird noch lange dauern, bis das wirklich mal so ist. Du hast gesagt, dass gerade Kinofilm ist. Und auch das haben wir schon gesagt, das Allwissende, die nicht mehr fehlerhafte KI, das liegt so tief in den Modellen drin, dieses Halluzinieren, dass das sehr schwer werden wird, ihnen das wirklich auszutreiben. Deswegen gibt es das auch noch nicht. Und Elli, du hast noch eine tagesaktuelle News mit reingebracht. Das Wall Street Journal hat Sam Altman nicht zitiert, aber laut Wall Street Journal hat Sam Altman was ausgerufen bei OpenAI. Elli: Yes, und zwar den Code Red. In diesen Tagen soll Sam Altman eben diesen sogenannten Code Red ausgerufen haben. Was bedeutet das? Der gesamte Fokus im Unternehmen soll darauf gelegt werden, die Qualität von ChatGPT zu verbessern, um konkurrenzfähig zu bleiben. Also es scheint, da sieht sich jemand so ein bisschen bedroht. Das geht zumindest aus einem internen Memo hervor, was dem Wall Street Journal vorliegt. Und was heißt jetzt, Chat-DPT soll verbessert werden, um konkurrenzfähig zu bleiben? Konkret geht es darum, bessere Personalisierbarkeit noch zu gewährleisten. Das Ganze soll noch schneller werden und ein größeres Spektrum an Fragen beantworten. Ja, da können wir mal gespannt sein, was das bedeutet. Ein größeres Spektrum anfragen. Vielleicht fällt da dann doch die ein oder andere moralisch-ethische Barriere, die Jatsipiti da bisher eingebaut hatte. Stella: Wir kommen in den Bereich der Zukunft, mit dem wir unseren heutigen Input schließen wollen, nämlich was können wir so die nächsten drei Jahre bringen. Genau, es ist ein Blick in die Kristallkugel, der ist immer schwer, aber so ein Einstieg wäre ja mal das Thema profitable Geschäftsmodelle, weil bis jetzt KI sehr teuer, kommt wenig bei rum, einmal flapsig formuliert. Das sollte sich wahrscheinlich in Zukunft ändern. Caspar: Ja, und wie ändert man das, wenn man Geld machen möchte? Da kommt das übliche Stichwort im Internet. Elli: Werbung. Caspar: Nicht bei uns, aber eventuell demnächst mal bei ChatGPT. Darauf will nämlich unter anderem ein Ex-User im Code der Beta-Version der Android-App gestoßen sein. Er ist aber ehrlicherweise auch nicht der Erste, der das schon mal besprochen hat. Wir kommen auch gleich noch zu Sam Altman, aber bleiben wir erstmal bei dem Beta-Code. Da taucht nämlich im Code so Schlagworte auf wie Ads, Feature, Search, Ad und Bazaar-Content. Also das deutet alles so ein bisschen darauf hin, dass man unter Umständen in Chat-GPT von OpenAI Werbung einbauen könnte, die dann, weiß ich nicht, zum Beispiel im Chat angezeigt wird oder Chat-GPT auch einem dann personalisiert Dinge vorschlägt, die dann meinetwegen zum Beispiel Produkte eines bestimmten Anbieters sind, der dann etwas Geld dafür bezahlt oder solche Dinge. Elli: Genau, ChatGPT hat ja auch vor kurzem so eine Shopping-Research-Funktion tatsächlich vorgestellt, wo man dann sagen kann, such mir mal bitte ein blaues Strickkleid mit mindestens 10% Wolle oder so raus und dann geht der Chatbot auf die Suche und liefert die Ergebnisse. Ein Schelm, wer da daran denkt, dass man vielleicht gegen Geld gewisse Anbieter weit oben platzieren könnte. Und du hattest jetzt schon Sam Oldman angesprochen, auch der hat das Thema Werbung schon mal thematisiert, unter anderem im November in einem Interview mit dem Podcast Conversations with Tyler. Und da hat er Werbung als Open My Eyes, Zitat, biggest revenue opportunity, also die größte Möglichkeit, um wirklich zu verdienen, benannt. Das Ganze ist natürlich auch irgendwie naheliegend, weil wer ChatGPT benutzt, wir sagen zwar immer hier an dieser Stelle, seid vorsichtig, was ihr da alles preisgebt, aber natürlich landen in ChatGPT in diesen Chats ganz, ganz viele persönliche Infos. Caspar: Also es bleibt spannend, wie OpenAI da Werbung machen möchte, beziehungsweise Geld aus Werbung machen möchte und wie personalisiert sie dann wird und wo sie am Ende ausgespielt wird. Was auch noch ein Geschäftsmodell sein könnte, unter Umständen wäre ja Hardware, da arbeitet OpenAI ja auch mit dem ehemaligen Chefentwickler von Apple dran, nämlich Johnny Alf. Also auch da wird 2026 was kommen im nächsten Jahr. Also wir werden sehen, dass im nächsten Jahr, das ist nicht mal unbedingt Glaskugel, wie gesagt, man gucken wird, wie man mit JGPT anfängt, Geld zu verdienen, weil wie gesagt, aktuell verbrennt man Geld, Stella, du hast das gesagt, und eben anfangen wird, Hardware zu bauen, beziehungsweise zu präsentieren und zu zeigen, ob man sie im nächsten Jahr schon kaufen kann. Das weiß ich nicht, aber zumindest sehen werden wir sie wahrscheinlich mal. Stella: Du musst ja immer sofort an diesen Human-AI-Pin denken oder Human-Pin werden. Natürlich eine ganz andere Richtung hat Open-AI nichts mit zu tun, aber irgendwie war das meine erste Assoziation. Aber kommen wir doch mal lieber. Caspar: Was es wird, wissen wir nicht. Stella: Keine Vorstellung. Vielleicht wird es eine Brille, ein Armband, ein Ring. Es kann alles sein. Caspar: Eine Kette. Eine Kristallkugel. Stella: Kristallkugel. Wir beenden jetzt mal unseren Blick in die Kristallkugel ein wenig und kommen nochmal quasi zusammen mit, Was haben wir jetzt eigentlich so die letzte halbe Stunde alles besprochen? Also ich glaube, was man festhalten kann mit diesem öffentlichen Release, damals von GPT 3.5, ist auf jeden Fall was losgetreten worden. Erstmal KI als großes öffentlich diskutiertes Thema. Caspar: Gleichzeitig ist es aber auch so, wenn man auf den Hype guckt, der losgelöst wurde, ist das, was tatsächlich technisch Bahnbrechendes passiert ist, gar nicht so groß. Und das ist eine Differenz, die ich finde, die man sich auch immer wieder in Erinnerung rufen darf. Ja, ChatGPT hat etwas ausgelöst und sicherlich auch in einer Geschwindigkeit, die wir sonst in der Tech-Welt so auch noch nicht gesehen haben. Ich meine, das Smartphone zum Beispiel war zwar natürlich auch für die Tech-Welt und für die Menschheit sehr weltbewegend, allerdings nicht in dieser Geschwindigkeit. Also 2007 vorgestellt, ging das dann langsam los, dass das sich in der Menschheit quasi verteilt hat, diese Smartphones und wir jetzt langsam über so Dinge reden, da kommen wir auch in der guten Nachricht noch zu, zum Thema Handy und wie kommen wir denn mal nah drum rum, ums Handy und digitaler Detox und so. Aber das ist halt nicht in drei Jahren komplett explodiert, die Smartphone-Geschichte. Und das ist natürlich schon neu. Wie gesagt, aber technisch hat sich gar nicht so, so viel getan. Elli: Was sich aber getan hat, ist eben die Normalisierung. Das ist auf der einen Seite sehr gut, dass die unterschiedlichsten Leute jetzt damit interagieren können und es nicht so in so einer Technikblase bleibt, aber es ist eben auch gefährlich und risikobehaftet. Und man muss auch sagen, die KI ist und bleibt ein Umweltschwein. Da reden wir von ChatGPT, aber auch von vielen anderen Modellen und Anbietern. Ja, zusammenfassend würde ich auch sagen, viele Branchen und Bereiche, Bildungssystem, Gesetzgebung, Kreativbranche und so weiter, versuchen nach den ersten Kennenlernjahren jetzt so ein bisschen langfristige Umgangsformen zu finden. Caspar: Ja, also KI, Smartphone, ich habe es eben gerade schon erwähnt. Ich habe eben auch die gute Nachricht schon angeteasert. Wollen wir dazu einfach mal übergehen als Abschluss? Wollen wir uns zum Schluss nochmal anschauen, wie wir das Thema Handy vielleicht weniger machen können und was das bringt? Elli: Sehr gerne. Stella: Die gute Nachricht dreht sich um den Bereich Social Detox. Und die große Frage, was passiert, wenn eigentlich junge Menschen eine Woche zum Beispiel auf Instagram und TikTok verzichten? Ich kann ja mal euch beide fragen. Habt ihr schon mal eine ganze Woche darauf verzichtet? Caspar: Ja, nicht eine ganze Woche, aber drei, vier, fünf Tage, weil mein Handy kaputt war und ich kein Ersatzgerät hatte. Stella: Also unfreiwillig. Caspar: Ja, unfreiwillig. Das ist jetzt auch schon zwei, drei Tage her. Zwei, drei Tage nicht, zwei, drei Jahre her. Ja, es war herausfordernd, weil man sich super schnell an so Dinge gewöhnt. Also zum Beispiel navigieren mit dem Handy oder die Bahn nachgucken. Wann fährt die denn und wo muss ich hin? Das zum Beispiel hat mir in den Tagen unglaublich gefehlt. Social Media nicht unbedingt. Elli: Falls du darauf anspielst. Ich wollte gerade sagen, das dürftest du ja noch, wenn du nur auf Social Media verzichten würdest, dann dürftest du ja trotzdem noch sowas wie Google Maps oder so benutzen. Caspar: Das stimmt. Stella: Elli, wie ist es bei dir? Elli: Ja, zu meiner Schande muss ich gestehen, ich habe das schon länger vor und schieb es vor mir her. Caspar: Und du, Stella? Stella: Ich tatsächlich schon mehrmals. Also, das hat mir jedes Mal gut getan, aber darum soll es jetzt nicht gehen oder in Teilen geht es in die Richtung. Und zwar hat sich die Harvard University das Ganze mal genauer angeschaut. Und was haben sie dafür gemacht? Naja, sie haben eine Studie durchgeführt mit 373 jungen Erwachsenen. Allerdings muss man jetzt dazu sagen, nur 295 von denen haben einen einwöchigen Verzicht dann gemacht. Worauf haben sie verzichtet? Also auf Facebook, Instagram, Snapchat, TikTok und X. Und dieser Verzicht, der war eben freiwillig. Das heißt, man hat erstmal eine zweimöchige Beobachtungsphase durchgeführt, sprich hat sich angeguckt, wie nutzen die Menschen denn diese genannten Programme. Und dann konnte man optional als Teilnehmer in diese einwöchige Social-Media-Pause machen. Und dann hat man sich eben die Ergebnisse angeguckt und da ist unter anderem aufgefallen, dass es positive Auswirkungen auf die mentale Gesundheit gegeben hat. Das heißt, Ängste, Schlafprobleme und auch Depressionen sind zurückgegangen und die Anzeichen für Depressionen sogar um 25 Prozent, bei Angstzuständen um 16 Prozent und bei Schlafproblemen immerhin auch um 15 Prozent. Stella: Und was war jetzt das Ziel dieser Studie? Na einerseits erstmal den Zusammenhang zwischen Nutzung, problematischem Verhalten und psychischem Gesundheitsempfinden zu erfahren und dann eben auch die Auswirkungen des Verzichts darauf. Es ist nämlich immer noch so, dass es da zwar viele verschiedene Studien gibt, wo auch zum Beispiel eine Einleitung heißt, die sind aber auch teilweise widersprüchlich. Also es gibt noch nicht ein Gesamtbild, wo man sagen kann, das sind wirklich die Auswirkungen, sondern die Forschung ist da immer noch dran. Was vielleicht noch ganz interessant war. Stella: Wie diese Studie jetzt gezeigt hat, weniger entscheidend war die Bildschirmzeit als die Tatsache, ob die Nutzung selbst problematisch empfunden wurde. Und durchgeführt wurde das Ganze in den USA und zwar im Zeitraum März 2024 bis März 2025. 25, ja, und englischsprachige ProbandInnen quasi und sie haben alle ein Smartphone besessen und waren zwischen 18 und 24 Jahre alt und allein deshalb weiß ich, weil ihr nicht in den USA lebt und nicht zwischen 18 und 24 seid, dass ihr beide nicht dabei gewesen sein könnt und ich auch nicht, also. Caspar: Das stimmt, ich habe nicht mitgemacht. Allerdings, nach dieser guten Nachricht und nach den positiven Ergebnissen, die du gerade aufgezählt hast, ich glaube, ich denke nochmal darüber nach, vielleicht zwischen in den Jahren mal so, zwischen Weihnachten und Neujahr eine Woche lang auf Social Media zu verzichten, mal gucken. TikTok wird mir wahrscheinlich fehlen, aber ich schaffe das. Elli: Es wäre ja quasi fast keine gute Nachricht bei uns, wenn es nicht auch ein Aber gäbe. Auch die Studienautorinnen auch reingeschrieben haben bei sich, man weiß nicht, also du hast die Zahlen genannt, inwiefern Symptomatiken und so weiter zurückgegangen sind. Wir hatten da Depressionen, unter anderem Anxiety und sowas. Und da ist aber auch ganz klar, es ist nicht klar, wie lange dieser Effekt dann tatsächlich anhält. Also man sieht zwar einen positiven Effekt, aber so richtig erforscht, ob das dann auch dauerhaft ist oder ob das einfach nach dieser einen Woche dann wieder sich zurückbildet, das ist dann durch diese Studie noch nicht erforscht worden. Stella: Genauso das Thema mit, was hat sich im Umfeld dadurch verändert. Also das spielt ja auch noch mit rein. Deswegen ist es eben auch mit der Einordnung da final zu sagen, das möchte ich jetzt mit dieser guten Nachricht nicht. Social Detox ist automatisch total super. Das lässt sich so studienwissenschaftsmäßig nicht aufrechterhalten. Aber natürlich kann das jeder für sich selbst rausfinden, vielleicht zwischen den Jahren weniger Social Media zu finden. Mehr Bücher, mehr Zeit mit der Familie. Für manche vielleicht auch stressig. Die sind dann gestresster als vorher mit Instagram oder TikTok. Ja, es hat sein Für und Wider alles. Caspar: Nee, ich mache immer zwischen den Jahren in Herr der Ringe Extended Version Marathon, die drei Filme. Da habe ich sowieso weniger Zeit fürs Handy. Stella: Können wir aber auch drüber reden, Caspar, ob das wiederum gesund ist. Da guckst du ja auch so viel auf den Bildschirm. Caspar: Ja, aber da ist ja meistens schlechtes Wetter zwischen den Jahren. Beziehungsweise so 13 Grad und Nieselregen ist ja immer so um Weihnachten rum. Es ist ja nicht mal winterliches Wetter leider. Naja, apropos Winter, wir kommen zum Schluss. Ihr hört uns morgen wieder, beziehungsweise ihr hört Elli morgen wieder, wenn ich den Plan richtig in Erinnerung habe, mit den nächsten Türchen. Das hier war ja jetzt das vierte Türchen, morgen gibt es das fünfte. Und wie gesagt, denkt dran, Spotify rappt, wenn ihr als Podcast vielleicht uns irgendwo da in den Charts auftauchen habt, freut uns das, wenn ihr uns das bei Instagram schickt. und er guckt euch die Bilder, die wir mit Flux gemacht haben, auf der Webseite in der Galerie nochmal an. Stella: Und in dem Sinne, bis spätestens nächste Woche, aber wie gesagt, bleibt dran für unseren Adventskalender. Elli: Ja, und ich sage einfach bis morgen. Tschüss. Caspar: Bis dann. Tschüss. Stella: Tschüss.
silicon-weekly.de
December 3, 2025 at 11:10 PM
Episode 71: Newsflash – Google kapert AirDrop und die EU plant den digitalen Reisepass
Zurück aus München von unserem Betriebsausflug und voller Energie! Wir haben uns vor Ort etwas Besonderes für euch überlegt: Dieses Jahr gibt es zum ersten Mal den Silicon-Weekly-Adventskalender mit 24 kurzen Audiotürchen! Ganz ohne Schokolade, dafür mit Wissen to go. Aber bevor es am 1. Dezember los geht, gibt es erstmal noch eine ganz normale Episode, in der wir im Newsmix unter anderem über Sushi Bikes, Googles Öffnung von AirDrop, den Weg zum digitalen Reisepass und über ein KI Projekt sprechen, das Rettungskräften helfen soll, Einsatzorte besser zu finden. KI-generiert von Google neuer generativer Bild-KI Nanobanana Pro ### Transkript der Episode _Das Transkript wird automatisch erstellt_ Jingles: Silicon Weekly, der Tech-Podcast mit den wichtigsten News der Woche. Für dich eingeordnet von Elli, Stella und Caspar. Caspar: Einen wunderschönen guten Morgen, guten Tag oder guten Abend, je nachdem, wann ihr uns hört. Ich sage aber zum Zeitpunkt der Aufnahme guten Abend, Stella. Stella: Hallo. Caspar: Und guten Abend, Elli. Elli: Hallo, hallo. Caspar: Wir sind zurück aus München. Wir waren auf der So Many Voices. Ich weiß nicht, ob ihr es vielleicht auf Instagram gesehen habt. Das ist eine Podcast-Konferenz und ich weiß nicht, wie es euch beiden geht. Aber bei mir war es so, beziehungsweise doch, ich weiß es, wir haben schon darüber gesprochen. Bei mir war es auf alle Fälle so, dass ich sehr beflügelt und mit sehr viel Schwung und Ideen und Motivation zum Thema Podcast wieder zurückgekommen bin. Wie war es bei euch? Ähnlich, ne? Stella: Sehr beflügelt, sehr gut gelaunt. Es hat sehr viel Spaß gemacht, sich auch mit anderen PodcasterInnen dort auszutauschen. Also ich konnte echt sehr, sehr viel mitnehmen. Super positive Erfahrung. Und außerdem, ich habe Weißwurst gegessen, Brezeln, Leberkäse. Also ich erzähle euch jetzt nicht alles, was ich dort gegessen habe, aber es war auch kulinarisch ganz wundervoll. Caspar: Und Elli, was hast du gelernt auf der Podcast-Konferenz? Elli: Dass manche Sachen sind wie Fahrradfahren. Ich habe ja zusammen mit vier wunderbaren KollegInnen durfte ich am Samstagvormittag einen Workshop machen. Und ich komme ja ganz, ganz ursprünglich mal so aus der Jugendarbeitsschiene und habe da auch viel Workshop und solchen Krams gemacht irgendwie und ein Konzept überlegt. Und Whiteboards bemalt und Flipcharts benutzt. Und das durfte ich am Samstag wieder machen und ich habe gemerkt, das hat sehr gut noch funktioniert und hat sehr, sehr viel Spaß gemacht. Also das war cool. Caspar: Ich war leider nicht dabei, aber ich bin immer vorbeigegangen, weil ihr habt so in so einem Coworking-Space links und rechts von dem Gang, wo man zu dem anderen Workshop-Raum kam, das gemacht und ich habe euch da immer begeistert zusammensitzen und in Gruppenarbeit sitzen sehen. Es sah sehr motiviert und gut aus. Elli: Ja, und unsere ganze Motivation haben wir direkt mit eingepackt. Eigentlich wollten wir schon auf der So Many Voices für euch da was aufnehmen, aber wir haben es, sagen wir es, wie es ist, wir haben es verpaddelt. Es ist uns eingefallen, als wir unten in München am Marienplatz standen mit dem vollgefressenen Bauch und Caspar und Stella sollten schon wieder los zur Bahn. Da fiel uns ein, wir wollten ja noch was aufnehmen. Wir entschuldigen uns an der Stelle, aber die Ankündigung, die wir machen wollen, ist dadurch nicht minder spannend. Caspar: Nein, wir werden sie halt einfach jetzt ankündigen und nicht extra gesondert, wie wir das eigentlich wollten. Denn wir haben eine kleine Überraschung für euch. Wir haben eine Überraschung für euch, die ja tatsächlich zwei Gründe hat. Zum einen, weil wir eben so viel Spaß am Medium Podcast auf dieser Konferenz wieder gesammelt haben. Und das zweite ist, weil wir bei Steady dank eurer Unterstützung unser erstes Ziel erreicht haben, wollen wir auch deswegen so ein kleines bisschen Danke sagen. Und ich hause jetzt einfach raus, es gibt dieses Jahr zum ersten Mal einen Silicon Weekly Adventskalender. Stella: Und was heißt das jetzt, nachdem wir so die Spannung aufgebaut haben? Wir werden euch nicht jeden Tag Schokolade schicken. Caspar: Schade. Stella: Wäre jetzt nicht so, dass wir darüber nicht auch gesprochen hätten. Aber das machen wir nicht. Ihr könnt auch keine Schokolade gewinnen. Elli: Auch datenschutztechnisch, glaube ich, sehr schwierig. Stella: Also es hatte verschiedene Gründe. Caspar: Es wäre ein bisschen creepy, wenn plötzlich bei allen Schokoladen im Kühlskasten wäre. Stella: Wir wissen nicht, wo ihr wohnt. allein daran scheitert ist. Aber was wir stattdessen machen, ist euch ganz unverbindlich erreichen, je nachdem, wie ihr es auch mögt. Und zwar vom 1. bis zum 24. Dezember haben wir jeden Tag ein Audiotürchen für euch. Datenschutzkonform, frei zum Abrufen, ohne Schokolade. Also sprich, ihr nehmt auch nicht zu davon, außer an Wissen. Also... Das gibt es da. Wir haben uns drei, nee, es ist drei richtig, also wir haben uns auf jeden Fall verschiedene Rubriken überlegt. Caspar: Mehrere Rubriken, ja. Stella: Mehrere, mehr als drei. Ich habe gerade noch mal kurz so nachgezählt. Extra für diesen Adventskalender. Immer so ein bis drei Minuten lang. Also eine ganz flotte Nummer, die euch bestimmt auch gut durch diese Adventszeit begleiten wird. Elli: Yes, diese ein bis drei Minuten, man würde vielleicht auch sagen snackable Content, also wenn ihr euch jetzt um Gottes Willen kriegen wir jetzt 24 Tage lang so einen Schinken wie immer donnerstags, nein, aber der Donnerstagstermin, der bleibt tatsächlich gleich, wir nehmen immer mittwochs unsere reguläre Folge auf und die ist dann quasi das Donnerstagstürchen, also drei Türchen, wisst ihr jetzt quasi schon so ungefähr, was euch erwartet und beim Rest könnt ihr noch gespannt sein. Caspar: Genau und apropos normale Sendungen, am 24.12. Ist dann das letzte Adventskalender Türchen, das ist nochmal ein Adventskalender, weil es kein Donnerstag ist. Gleichzeitig ist dieses Türchen dann auch unsere letzte Audioausgabe in diesem Jahr. Wir gehen danach in so eine kleine Winterpause und ihr hört uns am 8.1. Wieder. Also die Winterpause geht ein kleines bisschen länger, weil Neujahr ist ein Donnerstag. Da sind wir, glaube ich, noch nicht wieder fit genug, um Sendung aufzunehmen. Und erfahrungsgenäß passiert in der Tech-Welt auch nicht so viel. Deswegen am 8.1. hören wir uns wieder mit einer normalen Sendung. Stella: Ich weiß jetzt nicht, was du mit dieser Donnerstagsanspielung sagen möchtest. Caspar: Ich weiß das auch nicht. Stella: Caspar, da kann ich nicht folgen. Es sind übrigens vier Rubriken. Ich habe eben nachgeschaut, plus unsere regulären Folgen. Caspar: Genau, alles klar. Elli: Aber führt da mal nicht Buch drüber, weil man muss auch dazu sagen, wir stecken noch mitten im Making-of. So viel Transparenz darf sein. Deswegen, wenn es plötzlich fünf Rubriken sind, weil uns noch was eingefallen ist, noch ein Schmankerl, dann ist es so. Also ihr werdet erst im Laufe des Events rausfinden. Caspar: Drei, weil Dinge weggebrochen sind oder so. Also ihr merkt, für uns ist dieser Adventskalender auch eine kleine Überraschung. Genau. Elli: Wie gesagt, wir wollen uns damit einfach nochmal bedanken dafür, dass wir bei Steady 1 hier geknackt haben und auch so ein bisschen Sachen ausprobieren. Und vielleicht hört ihr auch die eine oder andere Stimme. Dementsprechend könnt ihr euch auf nächste Woche freuen. Aber ich würde sagen, wir gehen mal in die normale Sendung, oder? Caspar: Ja, ja. Lasst uns Tech News machen und lasst uns mit Updates anfangen. Jingles: Musik. Caspar: So, ich weiß zufällig, dass ihr beiden Joko von Joko und Klaas nicht kennt, aber ihr wisst, wer das ist und unsere Hörerinnen und Hörer wahrscheinlich auch. Und vielleicht wissen viele von euch auch, dass Joko immer mal wieder auch in Firmen investiert und darunter auch in Firmen, die ja vielleicht auch hier in so einem Tech-Tech-Podcast vorkommen könnten. Elli: Ja, es wäre jetzt an die Jokolade gedacht hat, die er auch mal gemacht hat, die mittlerweile zu Katjes gehört. Darum geht es nicht, sonst wären wir auch im Tech-Podcast ein bisschen falsch. Für alle, die ihn übrigens nicht kennen, Joko... Deutscher Fernsehmoderator, viel auf ProSieben unterwegs, falls ihr ihn da nicht so im Kopf habt. Groß, mit so einer Hornbrille, so einer eckigen. Caspar: Der Große von Joko und Klaas. Stella: Ich weiß nicht, ob das in Ordnung ist oder ob Caspar das hinterher rausschneiden muss. Aber meine Oma, 101 Jahre alt, guckt auch ganz gern die Sendungen von Joko und sagt dann immer, ach, das ist doch der mit dem langen Hals, wie so eine Giraffe. Also, falls ihr Joko und Klaas kennt, es ist der mit dem langen Hals und er heißt auch mit vollständigem Namen, Joachim Winterscheidt. Gut, so viel zu dieser Anekdote. Elli: Um seinen Halt soll es jetzt aber nicht gehen, sondern um Fahrräder, genauer gesagt um E-Bikes. Joko hat 2019 mitgegründet das Münchner E-Bike Startup Sushi Bikes. Seit April 2024 ist er allerdings nicht mehr Gesellschafter. Und wir erzählen euch trotzdem noch was über Sushi-Bikes, weil das so ein bisschen eine Geschichte ist, die stellvertretend für eine Branche ist. Wir wickeln das mal kurz ab in einem ganz kurzen Update. Caspar: Genau, weil dieses Startup, über das wir gesprochen haben, das Joko, in dem ja wie gesagt Gesellschafter war und jetzt inzwischen ausgestiegen ist, das hat nämlich, und da kommen wir zur aktuellen News, am 14. November beim Amtsgericht München Insolvenz angemeldet. Das heißt, der Webshop ist dicht, Die Webseite, dort kann man keine Käufe mehr tätigen. Die Produktseite ist offline und auf der Startseite des Webshops steht es, wir sind bald wieder da mit so einem Winkelsmiley. Und der CEO und Gründe Andy Weinzierl, der hat sich auf LinkedIn dazu auch geäußert, klingt da aber einigermaßen optimistisch dafür, dass man Insolvenz angemeldet hat. Er schreibt, wir sortieren uns ein bisschen und dann geht es hoffentlich wieder weiter. Elli: Ich finde, der klingt schon in der geschriebenen Form wie so ein Andi-Wein-Zierl. So stelle ich mir das vor, dass der ein bisschen sagt und die Insolvenz, das ist ja gar nicht so schlimm. Wir kriegen das schon wieder hin. Das wird schon wieder. Caspar: Das wird schon wieder. Genau, Elli, du hast es gerade schon erwähnt, SushiBikes ist nicht die einzige Firma im E-Bike-Bereich, die es in den letzten Wochen, Monaten und Jahren nicht ganz so gut ging und die in finanzielle Schieflage geraten ist. Man muss dazu sagen, SushiBike ist auch nicht zum ersten Mal in Schieflage, die Insolvenz ist jetzt quasi erstmal das vorläufige Ende von der Nummer. Andere Firmen waren zum Beispiel Van Moorff aus den Niederlanden, die waren auch kurz davor insolvent zu gehen, beziehungsweise waren es sogar auch und sind jetzt übernommen worden von einer anderen Firma. Und Cowboy aus Belgien, die ebenfalls E-Bikes bauen, die sind kurz davor insolvent gegangen zu sein und konnten aber auch in letzter Sekunde gerettet werden. Ja, mit einer der Punkte ist jetzt bei den zwei Firmen Probleme bei der Hardware und dass der große Corona-Aufschwung, der kam im E-Bike-Bereich, dass der sehr stark abgeebbt hat. Elli: Ja, und man muss auch dazu sagen, wenn du einmal so die Ebay zu Hause stehen hast, das ist ja auch nicht ganz günstig, dann behältst du das hoffentlich auch erstmal ein paar Jahre, würde ich mal sagen, dementsprechend. Ja, von Sushi-Bikes, wenn es da was Neues gibt, dann melden wir uns nochmal, ne? Caspar: Genau und auch, falls man erfährt, was irgendwie mit den Nutzerinnen und Nutzern ist, falls ihr so ein Sushi-Bike zu Hause habt, da ist noch nicht ganz klar, was damit passiert, wie es mit der Firma weitergeht. Wie gesagt, der CEO ist optimistisch. Wenn wir was hören, hört ihr es hier im Podcast. Stella: Und jetzt kommt ein harter Wechsel weg von Sushi-Bikes rüber zu Nano-Banana. Und zwar haben wir ja erst in der vergangenen Folge über das Thema Bildgenerierung gesprochen in unserem Input. Ja, und kaum haben wir das gemacht, da haut Google tatsächlich in dem Bereich auch ein Update raus. Was haben sie gemacht? Sie haben ein neues KI-Modell veröffentlicht, nämlich Nano Banana. Pro, wir erinnern uns noch mal mit dem Tool, da können einfach Bilder generiert werden. Was so die Idee dahinter ist, also dieses Pro-Modell soll besser den Kontext verstehen und auch die Texterstellung soll besser klappen. Wir haben dafür auch so ein Beispielbild. Caspar, ich weiß gar nicht, ob wir das dann auch als Kapitelmarke einblenden können oder ob das Format vielleicht nicht ganz so gut passt. Caspar: Das Format passt nicht so ganz und es wäre auch zu klein, das könnte keiner lesen. Wir packen euch das aber wie immer auf die Webseite in den Podcast-Artikel zu der Episode. Da könnt ihr das dann finden. Ich habe nämlich spaßeshalber direkt mal das Modell angeworfen, weil das große Versprechen ist von diesem Pro-Modell, dass es mit Schrift umgehen kann und mit Grafiken und Schaubildern. Und ich habe einfach mal gepromptet, erstelle eine Infografik zum Podcast Telekom Weekly. Und da ist ein, man kann jetzt über den Stil streiten und ob alles da drin richtig ist, aber zumindest gibt es keine Rechtschreibfehler. Da ist sehr viel Schrift da und die Grafik ergibt zumindest es im Grunde Sinn. Elli: Vielleicht ein kurzer Merksatz an der Stelle. Gemini, also dieses Zwillingssternbild quasi, das ist das KI-Modell an sich und die Sache mit den Bananen, das ist dann der Bildgenerator. Caspar: Ja, Google hat es eh mit Namen, sie nennen ja Tools immer sehr seltsam und ganz komisch, Betriebssysteme, Android hießen ja lange nach Süßigkeiten. Dieses Nano Banana ist so ein halb offizieller Name, es war der Name in der Testphase, als man als Google noch nicht veröffentlichen wollte, dass sie ein neues Modell haben, da konnte man aber im Internet schon so ein komisches Nano Banana Modell ausprobieren, man hat natürlich schon geahnt, dass es Google ist. Es ist dann zwischendrin unter Flash 2.5, beziehungsweise, also es ist ganz seltsam. Unter Nano Banana ist es am ehesten zu finden. Und das ist auch so ein halboffizieller Name, den Google inzwischen übernimmt. Wahrscheinlich heißt es in zwei Wochen eh schon wieder ganz anders. Elli: Ich finde, das klingt irgendwie wie so ein Kinderspiel, wo man so Bananenkarten oder so, also wisst ihr, so wie Bonanza so ein bisschen, nur mit Bananen, so stechen wir das vor. Caspar: Oh, lass mal eine Bonanza-Version mit Bananen erstellen. Gut, das kann ja jetzt die neue Bild-KI. Stella: Ich hätte da eine ganz andere Assoziation. Ich habe an Banana Split gedacht, aber ich esse auch für mein Leben gerne Eiscreme. Vielleicht ist das dann auch einfach das vorherige Assoziation kommt. Caspar: Wir können uns darauf einigen, dass es ein selten dämlicher Name für eine Bild-KI ist. Okay, das ist ein schönes Schlusswort zu den Updates. Wir gehen über zum WTF, was es diesmal auch wieder verdient hat, ein WTF zu sein. Wir gehen in Richtung des Internationalen Strafgerichtshof und ja, da ist Interessantes passiert, sagen wir mal so. Stella: Ich möchte mit euch jetzt eine kleine Gedankenreise machen. Okay, also wenn ihr zuhört, macht die Augen zu. Caspar und Elli, ihr dürft sie auch ausnahmsweise offen lassen. Aber ihr müsst euch jetzt mal vorstellen, ihr steht morgens auf, ihr trinkt euren ersten Kaffee, ihr fahrt zu arbeiten, ganz normaler Arbeitstag, ihr habt auch vielleicht gar nicht viel Stress gehabt. Ja, und dann wollt ihr in eure E-Mails schauen, aber da kommt ihr schon nicht in euren Account. Also, was macht ihr? Ihr ruft vielleicht erstmal, wenn ihr im Büro seid, ganz klassisch noch mit dem Festnetztelefon bei der IT an, wollt das klären, wisst noch nicht so recht weiter, ihr schaut auf euer Handy und denkt, ah, ich wollte ja, wenn ich jetzt hier gerade sowieso nicht arbeiten kann, ich kann nicht in meine Mails, naja, ich bestelle mal bei Amazon ein Buch und da seht ihr, hm. Mein Account ist gelöscht, den kann ich nicht mehr aufrufen. Wird schon langsam komisch, aber dann fällt euch ein, ihr müsst noch einem Kollegen neulich fürs Mittagessen Geld via Paypal senden. Und auch da funktioniert euer Login nicht. Ja, stellt es euch einfach mal vor. Elli: Das klingt relativ dystopisch. Und man könnte jetzt meinen, hast du dir das aus den Fingern gesaugt? Oder ist da wohl was Wahres dran? Stella: Sagen wir so, den genauen Ablauf, den habe ich mir tatsächlich aus den Fingern gesaugt. Ich weiß nicht, ob es wirklich so passiert ist. Ich weiß nur, dass Nicolas Guillaume tatsächlich mal morgens nicht in seine E-Mails gekommen ist. Wer ist das? Das ist ein französischer Richter am Internationalen Strafgerichtshof. Und er ist einer von sechs Richtern und drei Staatsanwälten, die schon im August 2025 von den USA mit Sanktionen belegt worden sind. Und über die Auswirkungen, da hat er gegenüber der französischen Zeitung Le Monde drüber gesprochen. Und demnach sind eben zum Beispiel seine Konten bei US-Anbietern nicht mehr zugänglich. Also ich weiß nicht, ob das wirklich mal sein Tagesablauf gewesen ist, sondern ich habe nur probiert, einen Tagesablauf mit vielen US-Anbietern nachzubauen, wie er möglicherweise sein könnte. Elli: Also Amazon, Airbnb, Paypal, nichts mit Hotelbuchungen, nichts mit Online-Käufen. Wenn irgendwo ein US-Unternehmen an irgendeiner Stelle in der Kette beteiligt war, dann hieß es für den guten Mann erstmal, das geht nicht mehr. Stella: Was vielleicht auch viele gar nicht so auf dem Schirm haben, ist das Thema Zahlungssysteme. American Express, Visa, Mastercard sind auch alles US-Firmen und wenn du eben mit den Diensten deine Zahlung abwickeln möchtest, dann gehst du theoretisch vereinfacht gesprochen auch ein Geschäft mit diesen Firmen ein und... Und das ist eben das Problem, denn durch diese Sanktion ist es den US-Firmen generell untersagt, Geschäfte beispielsweise jetzt mit Julio einzugehen. Ja, also er darf auch keine Transaktion mit US-Dollarn vornehmen und das wirkt eben dementsprechend auf europäische Banken. Ihr könnt jetzt mal, das ist jetzt kleine Mitmach-WTF, holt doch vielleicht mal irgendwie eure EC-Karte raus, die Karte von eurem Girokonto. Und vielleicht, ich habe auf meine geguckt, da ist auch so ein Visa-Emblem drauf. Und das zeigt eben auch die Verbindung, die viele von uns zu US-Unternehmen haben. Es ist nämlich so, dass Banken jetzt zwar einfach gesagt, zum Beispiel die Visa-Infrastruktur nutzen, um Zahlung abzuwickeln. Sprich, da wird der Händler angebunden, da werde ich als Kunde angebunden, weil das eben ein globales Netzwerk ist, was verfügbar ist, gerade auch in der westlichen Welt, mit dem sich eben bisher leicht bezahlen lässt. Funktioniert so lange gut, bis eben Personen ausgeschlossen werden. Und das zeigt auch nochmal dieses Beispiel, wie abhängig wir einfach von US-Firmen sind, an ganz, ganz vielen Stellen, die uns vielleicht gar nicht so bewusst sind. Elli: Aber jetzt nochmal zurück zu Nicola Guilou. Wie ist es denn bei ihm weitergegangen? Ich könnte mir jetzt denken, bei dem, was er so beruflich macht, dass er eine juristische Lösung in petto hat. Caspar: Ja, tatsächlich. Er hat ein paar Forderungen, die er in Richtung der EU stellt. Er fordert nämlich, dass die EU eine Verordnung aktivieren soll, die es Drittstaaten verbietet, Sanktionen in der EU umzusetzen, in dem Fall dann also den USA. Das heißt, dass die US-Unternehmen ihre Beschränkungen eben in dem Fall nicht in der EU umsetzen können, wenn das EU-Interessen verletzen würde. Und in dem Fall kann man ja ganz klar sagen, es ist ein internationaler Gerichtshof, der sitzt in der EU, da wäre es durchaus gegen die EU-Interessen, wenn man gegen Richter so vorgeht, wogemerkt vor einem Prozess, also zum Thema Rechtsstaatlichkeit müssen wir auch noch zwei, drei Sätze dazu sagen. Wir reden hier nicht über irgendwas, wir reden gleich nochmal darüber, was der Hintergrund ist. Aber es ist tatsächlich so, dass die USA ohne, also diesen Prozess im Grunde verhindern, indem sie einfach den Richter schon mal vorab, bevor irgendwas passiert ist, mit Sanktionen belegen. Und das ist eben, wie gesagt, nicht so richtig schön. Und dieser Richter sagt jetzt, da könnte man was gegen tun, weil es gibt eine Grundlage dafür schon, dass die EU das so umsetzen könnte. Sie müsste es halt nur entsprechend mal aktivieren quasi. Elli: Worum ging es denn eigentlich? Also warum sind denn da... Quasi im Voraus schon mal Sanktionen gegen ihn getätigt worden. Stella: Das liegt daran, dass ein Haftbefehl verhängt worden ist. Und zwar gegen den israelischen Premierminister Benjamin Netanyahu und den Verteidigungsminister Joachim Galant. Und zwar aufgrund, also das ist der Anklagepunkt quasi oder die Anklagepunkte, Kriegsverbrechen und Verbrechen gegen die Menschlichkeit im Kontext der Zerstörung des Gaza-Streifens. Caspar: Ja, und egal was man jetzt davon hält, ob man das gut, richtig oder falsch findet, das kann die USA ja auch durchaus tun, aber wie gesagt, einen Richter vorab zu sanktionieren und ihn mit Terroristen gleichzustellen, die landen nämlich unter anderem auch auf solchen Sanktionslisten, das ist schon ein harter Tobak und dieses WTF ist, weil das war ja klar, dass auf dieser Liste ist das ja schon länger bekannt, das WTF ist einfach, in welchem Ausmaß das Leben eines Menschen davon betroffen ist, wenn er auf so einer Liste landet und was dann doch alles an US-Firmen und Konten damit zusammenhält. Obwohl man das unter Umständen gar nicht bedenkt. Und wir hatten hier ja auch schon mal, ich glaube es war in den Updates oder in den News auch schon mal drüber gesprochen, dass der internationale Gerichtshof jetzt daran arbeitet, Microsoft zum Beispiel abzuschaffen und durch andere Programme zu ersetzen, damit eben zum Beispiel nicht der gesamte internationale Gerichtshof plötzlich lahmgelegt wird, wenn die USA mal wieder was quersitzen haben. Stella: Die ganzen allein einfach E-Mail-Zugänge und sowas zu sperren, das war ja das, was somit als erstes durch die Medien ging. Ja. Elli: In unserem Input geht es heute Schlag auf Schlag. Und wir haben auch einige US-Firmen mit am Start, kann ich schon mal sagen. Wir haben uns gedacht, wir machen mal wieder eine News-Folge. Deswegen gibt es ein buntes Potpourri. Und es bleibt digital und wir gehen in eine App. Und es geht auch so ein bisschen um den EU-Rat. Wir sind mal wieder bei einem juristischen Thema nochmal. Stella: Ist alles dabei. Caspar: Ist alles dabei. Wir bleiben bei der EU, sagen wir es so. Jingles: Newsflash. Stella: Und jedes Mal freue ich mich über diesen Jingle, weil ich finde, der passt einfach so zu diesem Thema. Also da möchte ich ja einmal Props aussprechen, weil wer hat ihn kreiert? Es ist Caspar. Caspar: Ja, mach nicht zu viel Druck. Ich muss für den 90er-Länder noch Dschingels basteln. Da müssen wir mal schauen, was das wird. Lassen wir uns zum Thema kommen. Und zwar, wir haben hier ja schon über den Fahrzeugschein gesprochen und wie einfach und schön und angenehm es war, den zu digitalisieren über die neue, ich glaube, IKFZ-App oder so heißt sie. Der Name der App ist ganz fürchterlich. Auf alle Fälle kann man sein Fahrzeugschein jetzt digitalisieren und kaum ist das passiert und hat funktioniert, kommt die nächste digitale Strategie und zwar ist es so, dass der Führerschein, der soll sowieso schon digital werden, aber auch der Reisepass. Am vergangenen Mittwoch hat der EU-Rat nämlich bestimmt, dass in Zukunft der Reisepass auch in einer digitalen Form vorliegen soll. Genauer gesagt, es gibt eine Verordnung für digitale Reisepässe. Die Mitgliedstaaten haben jetzt ihre Linien festgelegt und den Ministerrat ermächtigt, mit dem EU-Parlament zu verhandeln. Also es ist jetzt quasi der Startschuss. Fertiges Gesetz gibt es noch nicht. Aber es soll eben, wie gesagt, in Richtung eines digitalen Reisepasses gehen. Elli: Ziel des Ganzen ist es, den Grenzübertritt an den Schengen-Außengrenzen effizienter und sicherer zu machen. Und falls ihr euch jetzt denkt, oje, oje, ich mag aber doch meinen Papierpass ganz gerne, wo dann auch so ein kleiner Stempel reinkommt, tatsächlich soll der digitale Reisepass erstmal freiwillig bleiben. Und das physische Dokument ist auch in Zukunft noch Pflicht am Grenzübergang, also Papier und Plastik werden jetzt nicht direkt abgeschafft, aber wer möchte, kann in Zukunft eben eine digitale Kopie der Daten aus dem Chip von Pass oder Personalausweis auf dem Smartphone speichern und das ist dann eben der digitale Reisepass. Caspar: Ja, weil du sagst Stempel, da muss ich kurz mal einschieben. Ich habe einen Reisepass, ich war auch außerhalb der EU in letzter Zeit häufiger und ich habe keinen einzigen Stempel bekommen, ich bin ganz enttäuscht gewesen. Beim digitalen Reisepass ist das eh Geschichte, aber scheinbar kriegt man auch beim analogen keinen mehr. Elli: Uh, kommt auch an, wo du hinreist. Caspar: Okay, ja gut. Mit Asien hast du einen bekommen, nehme ich was stark an, oder? Elli: Ja. Caspar: Ja, okay, cool. Aber wir wollen nicht über Reisedokumente und Stempel in unseren Pässen reden, sondern wir wollen über den digitalen Reisepass sprechen, ne Stella? Stella: Genau und dazu habe ich eine Frage. Also ich muss ja trotzdem das Papierdokument immer noch dabei haben. Was nützt mir denn das Ganze dann, wenn ich einfach mal, keine Ahnung, digitalen Stempel dann kriege, wenn ich es so nennen will? Caspar: Ja, die Idee ist, dass du die Daten vor der Ankunft schon mal an Behörden senden kannst und das möglichst unkompliziert und einfach. Wer jetzt seit, ich glaube seit Mai zum Beispiel nach England gereist ist, da müsst ihr ja auch so eine Vorab-Anmeldung machen. Es ist kein Visum, sondern ihr müsst ein paar Daten angeben und die werden dann zum Beispiel an die englischen Behörden geschickt und die prüfen das und sagen dann, ja, du darfst einreisen oder eben nicht. Und das soll zum Beispiel durch so einen digitalen Reisepass erleichtert werden, weil ihr nämlich die Daten, die auf dem Chip auf eurem Reisepass sowieso schon drauf sind, die könnt ihr dann noch in der App laden und könnt sie dann leichter verteilen. Das Versprechen ist einfach kürzere Wartezeiten, zum Beispiel an Grenzen, insgesamt mehr Sicherheit und weniger Dokumentenbetrug, verspricht die EU. Elli: Es gibt aber noch einiges zu tun, was die Entwicklung angeht und wir haben euch mal hier aufgeschrieben, wer daran beteiligt ist, wer diese App und auch das Backend quasi mitentwickelt bzw. Betreut und dann auch irgendwann auf die Straße bringen soll. Die Europäische Agentur für das Betriebsmanagement von IT-Großsystemen im Raum der Freiheit, der Sicherheit und des Rechts, kurz auch die Europäische Agentur für IT-Großsysteme oder, es wird noch kürzer, Eu, Lisa. Caspar: Ja, es ist schön, oder? Das Ding heißt wirklich so. Ich habe das auch dreimal nachgeguckt und einen Wikipedia-Artikel dazu noch gelesen. Europäische Agentur für das Betriebssystem Management von IT-Großsystemen im Raum der Freiheit, der Sicherheit und des Rechts. Wer erinnert sich an den Reinhard Maisong? Egal, das ist eine Agentur, die EU gehört. Also die ist quasi im Besitz der EU und die soll das eben, wie gesagt, dann technisch umsetzen. Stella: Okay, das klingt jetzt erstmal soweit gut, aber es gibt ja auch Kritik unter anderem von Bürgerrechts- und Datenschutzorganisationen. Caspar: Genau, die warnen nämlich vor einem Ausbau biometrischer Überwachungsinfrastrukturen, die damit ihrer Meinung nach quasi geschaffen werden könnten auf EU-Ebene und sie sehen zum Beispiel automatisierte Gesichtserkennung als vorgesehenen Startpunkt. Das ist nicht gesagt, dass das automatische Gesichtserkennung damit dabei sein soll, aber es sind zum Beispiel biometrische Daten mit auf den Pass gespeichert und deswegen sehen diese Bürgerrechts- und Datenschutzorganisationen das durchaus kritisch, wenn da auf so einem digitalen Reisepass jetzt die Daten durchs Internet oder durch die Welt geschickt werden. Und sie befürchten flächendeckende automatische Erfassung, Auswertung von biometrischen Daten und langfristige Einschränkungen der Reisefreiheit, weil das dadurch einfacher sei, dann quasi das einzuschränken durch die Digitalisierung. Wenn wir wissen, wann der digitale Reisepass kommt, wenn es da Neuheiten gibt, hört ihr es wahrscheinlich wieder in den Updates. Das wird noch ein bisschen dauern. Aber etwas, was nicht mehr dauert, sondern jetzt gerade erst passiert ist. Die zweite News. Stellar, Microsoft und Nvidia, die haben sich halb quasi zusammengetan und mit Milliarden um sich geworfen. Was haben sie ausgegeben? Stella: Das erzeugt jetzt ein falsches Bild. Ich muss mir gerade, wenn ich so ein KI-Bildgenerator, dann wüsste ich, was ich baue. Welche Gebäude und dann fliegen so Scheine drumherum. Aber darum geht es nicht. Sondern es geht natürlich um Investitionen und Zusammenarbeit. Auch darüber haben wir schon mal in einer der vergangenen Folgen gesprochen. Was ist passiert? Es geht einmal um OpenAI und um Microsoft. Also Microsoft, OpenAI sind ja auch schon verbandelt über ChatGPT beispielsweise. Und jetzt ist es so, also Microsoft stellt beispielsweise schon OpenAI für ChatGPT-Server-Infrastruktur zur Verfügung. Und natürlich gibt es auch da finanzielle Verbindungen. Aber vor einigen Tagen ist jetzt ein Deal bekannt geworden, bei dem Microsoft gemeinsam mit dem Grafikkartenhersteller Nvidia, auch eine US-Firma, insgesamt 15 Milliarden US-Dollar in die KI-Firma Antrofic investiert hat. Und Moment, da darf man schon mal, Moment mal, das ist doch richtig ein OpenAI-Konkurrent, denn Antrofic kennt ihr vielleicht, das ist die Firma hinter den Cloud-Sprachmodellen. Caspar: Nvidia hat 10 Milliarden Dollar in die Hand genommen, Microsoft ungefähr 5 Milliarden Dollar und im Gegensatz für diese Investitionen in die Firma gibt es auch quasi eine Handwäsch die andere. Antropic hat sich dazu bekannt, dass sie jetzt stärker die beiden Firmen nutzen wollen, also zum Beispiel Azure Rechenleistung von Microsoft einsetzen wollen für ihre Sprachmodelle und zusätzliche Rechenkapazität, welche dann auf der Nvidia Hardware läuft. Also die einen investieren in die Firma und die andere sagt, okay, ich kaufe dafür Dienstleistung bei euch ein. Elli: Kann man jetzt natürlich sagen, an Nvidia kommt man ja gefühlt kaum vorbei, wenn man irgendwas mit KI macht aktuell. Also sonderlich schwer gefallen wird ihnen das nicht sein, dass sie zum Beispiel jetzt sagen, wir nutzen Nvidia-Hardware. Ja, es gab aber noch mehr, was an dem Deal dran war. Caspar: Ja, bevor wir zu dem weiteren Deal noch kommen, muss man noch einschieben, weil du die Hardware gerade angesprochen hast. Da ist tatsächlich heute oder gestern auch noch eine kleine News an mir vorbeigeflogen. Meta tut sich nämlich mit Google zusammen. Die wollen Google Chips benutzen für ihre KI und die wollen tatsächlich Nvidia so ein bisschen, also die wollen zumindest dann auf Google setzen und das wäre natürlich, hat die Nvidia Aktie dann gleich wieder ein bisschen fallen lassen. Also da ist gerade sehr viel Kampf um Milliarden, um Investitionen, um Hardware, um Serverkapazitäten. Ja, so du hast es eben angesprochen, es gibt noch einen weiteren Teil des Dienstes, Claude, das Sprachmodell von Entropic, das wird breiter in Microsoft Copilot integriert, also zum Beispiel in GitHub Copilot, den es bei GitHub gibt, wird es integriert. Bei Microsoft 365 Co-Pilot. Ihr könnt dann Claude quasi auswählen als Sprachmodell. Und KundInnen mit Microsoft Foundry bekommen auch Zugang zu den Modellen Claude Sonnet 4.5, Opus 4.1, Heiko 4.5. Leute, die sich damit auskennen, wissen, was ich meine. Die allen anderen können sagen, ja, okay, es gibt viele verschiedene Sprachmodelle, jetzt kriegen Sie jetzt Zugang. Und was auch noch ein bisschen spannend ist an der ganzen News, bisher lief Cloud überwiegend eigentlich auf Servern des Anbieters Amazon und laut Antropic bleibt das auch weiterhin der wichtigste Cloud-Anbieter für die Firma, aber man setzt, stellt sich jetzt quasi breiter, ein bisschen breiter auf und nutzt eben halt auch deine Zukunft Infrastruktur von Microsoft und Nvidia. Elli: Caspar, jetzt hast du gesagt, die werfen mit Geld um sich oder die haben mit Geld um sich geworfen und Stella, du hast direkt das Bild dazu im Kopf gehabt. Da kommt mir die Folge in den Kopf, die wir vor einigen Wochen gemacht haben zum Thema, wer verdient an KI und zum Thema, gibt es da eine Blase? Wie sieht es denn aus? Jetzt ist da ja wieder Geld reingepumpt worden in diese Blase, in diese mögliche. Caspar: Und wir reden dann immer über Firmenbewertungen. Das sind relativ hypothetische Zahlen, aber wir müssen sie trotzdem kurz mal erwähnen. Nach dieser Investition von Microsoft und Nvidia ist Entropic laut US-Wirtschaftssender CNBC nun knapp 350 Milliarden Dollar wert, beziehungsweise so bewertet worden. Und um das mal in Relation zu setzen, im September lag diese Bewertung noch bei 183 Milliarden. Das heißt, auch ich kann das, obwohl ich nicht gut im Kopfrechnen bin, innerhalb von nur zwei Monaten hat sich der Wert des Unternehmens fast verdoppelt. Und das ist schon ein ordentlicher Sprung. Stella: Du hast das jetzt sehr sanft formuliert, ein ordentlicher Sprung. Es ist schon, sagen wir mal, recht ungeklagend. Das ist ungewöhnlich, zumal da jetzt auch, korrigiert mich gern, wenn ihr da was anderes wisst, es ist ja nicht irgendwas passiert, dass da, weiß ich nicht, eine total krasse technische Entwicklung passiert ist, wo man sagt, okay, das rechtfertigt das Ganze jetzt, sondern es geht eben um dieses Geflecht, was wir euch am Hintergrund gerade kurz aufgeschlossen haben, was eben wieder auch so ein bisschen in den Bereich KI-Finanzblase gibt und es gibt auch ganz konkret Kritik an diesem Deal. Elli: Ja, weil so ein bisschen ist das so, ich weiß nicht, wenn ihr so Jugendliche im Alter von 13 bis 16 kennt und die Dynamik des sich hochschaukelns, die da manchmal stattfindet. Das kann man sich da jetzt so ein bisschen in diesen Finanzgeschäften vorstellen, weil im Grunde wird da ja Geld im Kreis gegeben. Nvidia und Microsoft werfen Antropic Milliarden zu und die werfen dann wiederum Milliarden an Miete von Infrastruktur und Hardware zurück. Und irgendwie blickt man am Ende potenziell gar nicht mehr durch. Es wird so ein ganz wildes Geflecht aus, wer hat wem Geld zugeworfen und dafür aber auch wieder Geld bekommen. Also diese Summen, die im Spiel sind, da fließt ja auf der anderen Seite wieder was zurück. Und das ist, wie gesagt, sehr kritisch zu sehen. Stella: Genau, das ist wieder dieses Thema, was dann eben wieder zur KI-Blase oder möglichen KI-Blase geht, nämlich diese ganzen Verflechtungen, wenn Unternehmen dermaßen gegenseitig voneinander abhängig sind, Caspar Drott, das ist gerade auch angesprochen, beispielsweise mit Meta und Google, kann das für den Markt eben in dem Sinne herausfordernd sein, stellt euch das so ein bisschen vor, wie wenn ihr Dominosteine aufbaut, wenn einer fällt, reißt der ganz viel andere mit und dementsprechend, Deswegen diese ganze KI-Thematik wieder mit einem Bild abgeschlossen. Also die Firmen sind einfach sehr, sehr eng miteinander verflochten, was potenziell gefährlich sein kann für den Markt, gerade wenn es um so, so hohe Bewertung geht, wo Leute dann natürlich auch Vermögen investieren, teilweise private Anleger, aber natürlich auch Hedgefonds etc. Ich tue mich immer schwer mit dem Bild, dass da Geld so durch die Gegend geworfen wird. Ich stelle mir dann immer vor wie ein Agentenfilm, dass jemand mit einem Köfferchen kommt und dann rennt sie da, weiß ich nicht, von Nvidia und Microsoft zu Entropic hin und her. Das ist natürlich nicht der Fall. Also da geht es in der Regel einfach um Buchwerte oder um Buchgelder. Da wird jetzt nicht permanent irgendwie hin und her überwiesen. Caspar: Ich kann sagen, da ändert sich eine Zahl auf einem Papier, ehrlicherweise. Stella: Ja. Caspar: Okay, kommen wir von KI und abstrakten Finanzierungsrunden und Investitionen zu einem Thema, das ehrlicherweise ich nicht auf meiner Bingo-Tech-News-Karte für 2025 hatte. Ich weiß nicht, wie es euch geht. Stella: Du hast eine Bingo-Tech-News-Karte? Caspar: Ja, wer weiß. Da stand einiges drauf dieses Jahr. Nicht alles wurde erfüllt, aber das Thema war nicht dabei. Hier kommt zu unserer letzten News, die auch ein bisschen WTF-Potenzial hätte oder gehabt hätte. Worum geht es? Wer von euch ein iPhone besitzt, liebe Hörerinnen und Hörer, kennt seit vielen, vielen Jahren, nämlich seit 2011, eine Funktion, die heißt AirDrop. Damit könnt ihr Daten von einem iPhone ans andere oder auch ein iPad oder einen Mac schicken. Ich wette auch an die Vision Pro. Also es ist so ein Apple-internes Dateiaustausch-Protokoll. Das Ganze läuft ohne Server, es läuft lokal von Gerät zu Gerät. Die Daten werden verschlüsselt, verschickt, seien es Fotos, Dateien, Kontaktdaten wie Telefonnummer oder Mailadressen. 2011 habe ich schon erwähnt, da ging das nämlich los, da ist das zum ersten Mal mit dem Betriebssystem OS X Lion veröffentlicht worden für den Mac und ist dann später auch für iPhone und iPad veröffentlicht worden. So, und um diese Funktion nutzen zu können, braucht man ein iPhone, so nach dem Motto, wenn du ein iPhone hast, wenn du kein iPhone hast, hast du kein iPhone. Wir kennen den alten Werbespruch. Elli: Ja, das wurde mir auch schon in den letzten Wochen mal gesagt von euch. Und da klickt man dann einfach auf Teilen und das Gegenüber muss diese Funktion auch aktiviert haben und sichtbar sein und dann kann man Sachen verschicken. Könnt ihr euch so ein bisschen vorstellen, wenn ihr kein Apple-Produkt habt, wie Sachen via Bluetooth verschicken. Das geht nämlich auch, denkt man gar nicht mehr dran, weil irgendwie scheint es so von vorgestern gewesen zu sein, aber man kann tatsächlich auch zwischen vielen Geräten via Bluetooth-Sachen hin und her schicken, auch Bilder unterteilen. Caspar: Und bei Android gibt es eine ähnliche Funktion auch seit 2020, das ist dann halt eben nur unter Android-Geräten und nicht zum Beispiel zum PC oder Tablets. Die Funktion heißt dort QuickShare, die kann man ähnlich einsetzen wie Airdrop, sie funktioniert auch ganz ähnlich, man kann halt da auch wieder auf Teilen klicken, QuickShare auswählen und kann dann zum Beispiel an Android-Geräte, die in einem Umgebung sind, Daten irgendwie schicken. Und das große Aber ist, das geht halt bisher nur entweder unter Apple-Geräten untereinander oder eben unter Android-Geräten. Bisher. Stella: Genau, jetzt kommen wir nämlich zu dem Punkt, der die Nachricht ist und der zum Beispiel vielleicht jetzt auch Alice und unsere Telefone in Zukunft verbinden wird. Da gab es quasi ein kleines Beben in der Tech-Welt. Caspar, du hast gesagt, es stand nicht auf deiner Bingo-Karte. Google hat jetzt nämlich quasi, ja, AirDrop geöffnet. Elli: Warte mal, das ist doch eine Apple-Funktion. Was hat denn da jetzt Google mitzureden? Caspar: Ja, das ist ganz richtig. Google hat AirDrop geöffnet und integriert in sein Betriebssystem und nicht etwa Apple hat etwas freigegeben und auch nicht im Sinne von Apple und Google haben sich zusammengetan, harmonisch an einen Tisch gesetzt und das zusammenentwickelt. Nein, Google hat es möglich gemacht, dass Android und iOS-Geräte plötzlich miteinander Daten austauschen können über AirDrop und QuickShare. Apple war ganz offiziell nicht an dieser Öffnung beteiligt. Google hat die technische Brücke selber gebaut und das veröffentlicht und das hat auch ein Google-Sprecher gegenüber dem US-Tech-Magazin The Verge verkündet, Alex Moriconi. Und der hat gesagt, wir haben das durch unsere eigene Implementierung erreicht. Und auf die Frage von The Verge, wie Google eine mögliche Reaktion von Apple dann einschätzt, antwortet der Sprecher, wir sind jederzeit bereit, bei Interoperabilitätsfragen zwischen iOS und Android zusammenzuarbeiten. Elli: Das ist, so wie du das gesagt hast, klingt das schon so richtig, pardon my language, scheißfreundlich. Wir würden ja zusammenarbeiten von unserer Seite aus, gar kein Problem. So, fragt sich natürlich jeder, der das hört, wie konnte Google das machen? Das ist ja eine Apple-Funktion eigentlich. Wie ist das also zustande gekommen, das Ganze? Caspar: Ja, so ganz klar ist das nicht. Und jetzt kommen wir so ein bisschen in den Bereich der unklaren, nebligen Spekulation. Wir wissen nur, es funktioniert mit ein paar Einschränkungen und Abers, da kommen wir gleich auch noch zu. Es ist vermutlich so, dass die EU damit was zu tun haben könnte. Wir reden hier immer mal wieder über EU-Gesetzgebung und dass sie zum Beispiel etwas gegen Gatekeeper, also große Firmen, die auf Funktionen und Sachen sitzen, dass sie etwas dagegen tun wollen und so dieses Apple kann untereinander Sachen tauschen, aber nicht nach außen, dieser goldene Käfig, das ist ja etwas, was die EU gar nicht mag. Und deswegen gibt es EU-Vorgaben, dass das offene Wi-Fi-Protokoll Aware von Airdrop auch eben unterstützt werden soll. Eigentlich nutzt Airdrop ein proprietäres Protokoll, also ein hauseigenes, was nicht frei verfügbar ist, namens AWDL. Und das ist für andere Anbieter eben unzugänglich, eben auch für Google. Und mit Wi-Fi Aware gibt es nun seit neuestem in iOS 26 eben eine standardisierte Möglichkeit, Geräte in der Nähe zu finden und zu koppeln. Das, wie gesagt, musste durch eine EU-Vorgabe eingesetzt werden von Apple. Und es ist relativ wahrscheinlich, dass Google eben auf dieses Wi-Fi Aware ein Airdrop-kompatibles System aufgebaut hat. Caspar: Auch da ist es so, dass die Verbindung dort Google ohne Serverkontakt funktioniert, dass die Daten direkt von Gerät zu Gerät wandern und dass es durch mehrere Sicherheitsschichten, wie Google sagt, geschützt ist. Was wieder so ein bisschen dagegen spricht, dass Google einfach nur dieses neue Wi-Fi-Aware genommen hat, die neue AdWrap-Funktion von Google funktioniert laut Berichten im Netz, wir konnten das selber nicht ausprobieren, weil wir entsprechende Geräte nicht zu Hause haben, aber laut Berichten im Netz funktioniert das nicht nur mit iPhones ab iOS 26, wo das ja implementiert ist, das neue Wi-Fi-Aware, sondern eben auch mit Geräten noch mit iOS 18 und dort ist eben nur Apples Hauseigner-Dienst noch implementiert. Und trotzdem gibt es wohl die Möglichkeit, dort auch von Android-Geräten rüber zu airdroppen. Das heißt, es besteht zumindest der Verdacht, dass Google es geschafft haben könnte durch Reverse Engineering, also durch nachgucken und genauer hingucken und ausstöbern und herausfinden, wie der Airdrop funktioniert, Airdrop quasi zu knacken und sich selber dann quasi das nachzubauen. Stella: Ja, okay. Das heißt, wir wissen schon mal nicht, wie das Ganze jetzt wirklich funktioniert. Wir wissen, dass Google da offensichtlich den Vorstoß gemacht hat. Wir haben aber natürlich, ihr kennt uns doch, auch noch ein Aber dabei. Weil bei dieser Sache gibt es auch noch einen Haken. Caspar: Genau, ihr braucht aktuell von Googles Seite aus ein Pixel 10 Smartphone, um mit Android-Daten zu iPhone, iPad oder Mac schicken zu können. Google arbeitet aber laut eigener Aussage daran, die Funktion auszuweiten auf andere Geräte. Da gucke ich jetzt in Richtung Ellie. Du hast zwar kein Google Pixel 10, aber du hast ein aktuelles Android-Smartphone. Das heißt, es könnte sein, dass Google das demnächst auch mal für dein Gerät freigibt. Und der zweite Haken ist, das ist so ein halber Haken, bisher funktioniert das nur im Modus alle. Also beim iPhone muss man die Funktion Airdrop für alle aktivieren. Wer das schon mal genutzt hat, kennt die wahrscheinlich. Das ist eine Funktion, da wird man dann für alle im Umkreis sichtbar. Die wird nach zehn Minuten automatisch wieder deaktiviert, damit man nicht zum Beispiel in der U-Bahn ungefragt irgendwelche Bilder zugeschickt bekommt, was eine Zeit lang bei Airdrop zum Beispiel passiert ist. Ihr könnt ahnen, in welche Richtung diese Bilder gingen. Und diese Funktionen alle deaktiviert sich nach zehn Minuten. In der Zeit kann man dann aber von Android zu iPhone und auch andersrum Daten verschicken. Und die Daten sind dann entsprechend, wie gesagt, funktioniert das und die sind dann verfügbar. Elli: Kann man natürlich sagen, Google hat ein Angebot gemacht mit einem vielleicht schelmischen Gründen. Wir wissen es nicht, wir können es uns nur vorstellen. Apple hat natürlich aber auf der anderen Seite auch die Möglichkeit, technische Gegenmaßnahmen zu ergreifen. Wenn man sagt im Unternehmen, wir wollen das nicht, Wir wollen weiterhin unter uns bleiben. Dann gibt es natürlich auch die Möglichkeit, dass Apple Google quasi wieder aussperrt. Ob das passiert, behalten wir natürlich für euch im Blick und falls ihr einen Pixel 10 habt, dann könnt ihr uns gerne mal schreiben, ob ihr die Funktion gut und sinnvoll findet. Caspar: Oder generell, was ihr davon haltet, ob ihr es schön findet, mal Daten untereinander austauschen zu können. Stella: Und sobald das mit mehr Geräten möglich ist, Leute, werden wir das doch in unserer Runde hier testen. Caspar: Natürlich, natürlich. Stella: Also, falls das eines Tages der Fall sein wird, wenn Apple jetzt nicht plötzlich dicht macht. Also die Funktion. Caspar: Also ich lehne mich jetzt mal komplett aus dem Fenster und ich sage, Apple wird sich dazu nicht mehr äußern und wird es einfach so belassen. Weil mit Blick auf die EU und EU-Regulierungen, ich glaube, es wäre nicht so smart, jetzt Google wieder auszusperren. Aber ich kann mir relativ vorstellen, dass man da in Cupertino alles andere als froh ist im Apple-Hauptquartier. Das ist eine Vermutung. Stella: Ich halte mich mit Vermutung zurück. Wir behalten es im Auge und werden euch dann in den Updates vielleicht nochmal ein Update geben. Oder es wird einfach stillschweigend bewahrt. Vielleicht, Caspar, würde es genauso sein. Wie sieht es denn aus? Habt ihr Lust auf so eine gute Nachricht? Tatsächlich auch mit künstlicher Intelligenz. Caspar: Immer. Gute Nachricht geht immer. Elli: Da sind wir dabei. Stella: Gute Nachricht. schauen uns jetzt erstmal auf das Problem an, was sie überhaupt mit dieser KI-Nutzung lösen wollen. Es ist nämlich so, dass teilweise die Standortübermittlung über das Handy-GPS nicht gut funktioniert. Das heißt, es ist einfach so, wenn ich zum Beispiel über mein Smartphone anrufe, dann kann irgendwie nicht genau ermittelt werden, wo ich mich gerade befinde. Und wenn ihr jetzt sagt, naja, aber du rufst ja an, dann kannst du es ja beschreiben. Ja, aber es ist nochmal so, in bestimmten Notsituationen, da klappt es auch mit der Ortsbeschreibung nicht so genau, wenn Menschen dann natürlich auch aufgeregt sind, absolute Stresssituation und das kann dann eben auch Probleme machen. Elli: Ja, oder du bist zum Beispiel in einer Gegend, die du einfach nicht gut kennst, wo du auch zum Beispiel die Straßennamen nicht direkt im Kopf hast. Ich hatte das mal, ich habe einen Notruf getätigt bei einer Wohnungsbesichtigung in einer Gegend, in der ich sonst so gar nicht bin. Und da muss ich auch erst mal kurz die umstehenden Leute angucken und fragen, wo sind wir eigentlich? Stella: Genau, und vielleicht steht aber auch gar keiner um dich rum und was machst du dann? Caspar: Ja, eigentlich funktioniert das über die sogenannte Advanced Mobile Location. Da wird dann automatisch der Standort geteilt. Stella, du hast es auch schon erwähnt, also wenn ein Notruf gewählt wird, erkennt das das Smartphone ja und sendet diesen Notruf wie gesagt weiter. Aber wir haben auch eine Zahl, in 30 Prozent der Fälle klappt das eben nicht, sagt Jörg Pfeiffer, der ist Fachbereichsleiter beim DRK Bodensee-Oberschwaben und er hat das gegenüber heise online gesagt. Ursache sind zum Beispiel Gespräche in der Nähe von Landesgrenzen. Da kann es ja sein, dass ihr zum Beispiel vom Mobilfunk her euch in ein anderes Netz einwählt. Oder es tatsächlich so ist, dass ihr bei dem Fall in der Anführungszeichen falschen Notrufzentrale rauskommt. Also gerade in so Grenzgebieten kann es problematisch werden. Elli: Wo kommt da jetzt die KI ins Spiel? Caspar: Ja, wo hilft die KI da? Stella: Die KI, Elli, deine Frage, sie ist berechtigt. Wie soll die denn jetzt helfen? Naja, die soll eben helfen, mit Hilfe von Gebäudebeschreibungen die Unfallstelle zu finden. Und dafür müssen dann Anrufer auffällige Gebäude oder Orte, also sprich Feststehendes, was jetzt nicht unbedingt einfach leicht zu verschieben ist in der Umgebung, sondern sich da generell befindet, beschreiben und diese Beschreibung gleicht dann die KI mit Open-Source-Geodaten. Und darauf basierend steckt sie dann eben Einsatzorte vor. Elli: Im Testlauf soll das so funktionieren, dass aus 20 potenziellen Orten, die bei rauskommen, drei Orte rausgefiltert wurden. Und jetzt habe ich schon gesagt, Testlauf. Wie weit sind wir denn? Wo stehen wir denn? Stella: Man könnte sagen, wenn man das jetzt so ganz Marketing-mäßig, wir sind ganz am Anfang. Ja, ich kann es jetzt auch nicht irgendwie positiver labeln. Also bis jetzt wurden nur fiktive Notrufe getestet in einer simulierten Umgebung. Das heißt, das Ganze ist noch nicht mit echten Fällen getestet worden. Und jetzt kommt das eigentlich wirklich große Aber. Denn ob und wann es diese Tests gibt, das kann ich euch nicht sagen. Und ich glaube auch das DRK kann es gerade noch nicht sagen, denn es fehlen aktuell noch die nötigen Fördermittel, um eben dann diese ausführlichen Tests auch laufen zu lassen. Elli: An sich finde ich es aber eine spannende Idee, weil man ja auch sieht, ich merke das zum Beispiel an meinem KI-Nutzungsverhalten, wenn ich bei einer Suchmaschinensuche nicht die richtigen Schlagworte weiß, dann fällt es mir manchmal einfacher, das in eine KI einzugeben tatsächlich, weil ich das Gefühl habe, ich kann da besser umschreiben und es wird trotzdem verstanden. Also wenn ich das exakte Stichwort nicht parat habe, dann ist das ja das, wo ab und zu KI doch ein bisschen besser anpacken kann noch gerade und dementsprechend für diese Ortsbeschreibung vielleicht gar nicht mal so schlecht. Aber ob es jetzt wirklich dann irgendwann in die großen realen Tests geht, wir werden dranbleiben. Caspar: Genau und für die Hörerinnen und Hörer, ihr könnt ja mal ausprobieren, ein Foto zum Beispiel in Chat-GPT zu werfen und euch mal den Ort ausspucken zu lassen. Das funktioniert teilweise erschreckend gut, manchmal liegt es auch völlig daneben, aber teilweise funktioniert das wirklich gut und es gibt auch andere verschiedene KI-Modelle, die zum Beispiel für Journalistinnen und Journalisten gedacht sind, um Orte von Fotos wieder zu erkennen und dort wird dann zum Beispiel die Entfernung von Strommasten gemessen, die auf dem Bild zu sehen sind in Relation zu so und sowas. Und das kann die KI auch alles schon abschätzen und auch da kriegt man dann eine Liste von möglichen Orten und auch das ist schon oft relativ genau. Das heißt, dieses Projekt könnte tatsächlich funktionieren, wie gesagt, wenn die Finanzierung geklärt ist, aber da drücken wir einfach mal die Daumen. Stella: Vielleicht haben wir da ja auch eines Tages ein Update für euch. Caspar: Ein Update für eine gute Nachricht, wäre doch immer schön. Elli: Ich würde jetzt angesichts der Ortsfrage sagen, wir hören uns nächste Woche zur gleichen Zeit am gleichen Ort wieder, aber stimmt ja gar nicht. Wenn ihr mögt, dann hört ihr uns schon am Montag wieder. Caspar: Mit dem ersten Türchen. Wie gesagt, ihr findet das tatsächlich aber auch an der gleichen Stelle. Es wird hier im Stream einfach gepostet. Ihr müsst nichts extra neu abonnieren. Ihr müsst nicht irgendwo hingehen. Es landet, wenn ihr uns abonniert habt und zum Beispiel die Glocke aktiviert habt in eure Podcast-App, kriegt ihr auch eine Mitteilung und es landet direkt in eurer Playlist. Das ist sowieso eine kleine Empfehlung von uns, das zu tun. Stella: Genau. Am 1. Dezember geht es los. Schaltet ein, seid gespannt. Und es bleibt natürlich eine Überraschung, wie bei einem richtigen Adventskalender, was sich dann hinter den Türchen verbirgt. Elli: An der Stelle sei aber auch noch ganz kurz gesagt, ihr hört uns dann nicht immer zu dritt, sondern ihr kriegt uns einzeln zu hören. Stella: Ja, das stimmt. Exklusiv quasi. Caspar: So, dann machen wir mal Schluss. Ich überlege mir, wie der Jingle aussehen könnte und schnippel ein bisschen dran rum. Stella: Sollen wir was einsingen? Caspar: Vielleicht nicht. Vielleicht müssen wir das noch gleich ausdiskutieren. Elli: An der Stelle würde ich sagen, wir drücken mal die Stopp-Taste. Stella: Macht es gut. Elli: Bis nächste Woche. Caspar: Bis dann. Tschüss. Elli: Tschüss. Jingles: Das war es schon wieder für diese Woche. Folgt oder abonniert uns gerne in eurer Podcast-App und lasst uns dort eine Bewertung da. Das hilft uns sehr. Bis zum nächsten Mal.
silicon-weekly.de
November 26, 2025 at 11:12 PM
Episode 71: Löwenbaby oder Pixelbrei – KI-Fakes erkennen
### In dieser Woche besprechen wir etwas, das gar nicht mehr so leicht ist. Nämlich KI-Texte, -Bilder und -Videos von echten Inhalten zu unterscheiden. Was das Thema mit einem vermeintlichen Löwenbaby zu tun hat, erfahrt ihr in der Episode. Außerdem geht es unter anderem um uralte Windows-Versionen in britischen Behörden und um ein digitales Jugendzentrum. ### **Links zur Episode** * Den Videovergleich zum Spaghetti essenden Will Smith findet ihr bei Reddit * Die Faktenchecks findet ihr unter anderem beim Faktenfuchs oder auch bei Correctiv ### Transkript _Das Transkript der Episode wurde automatisch erstellt_ Jingles: Silicon Weekly, der Tech-Podcast mit den wichtigsten News der Woche. Für dich eingeordnet von Elli, Stella und Caspar. Elli: Hallo und herzlich willkommen zu einer neuen Folge Silicon Weekly. Ich bin Elli und falls ihr mich letzte Woche vermisst habt, weil ich nicht da war, hallo, da bin ich wieder. Und ich habe noch ein Hühnchen zu rupfen mit den beiden, die mir hier virtuell gegenüber sitzen. Was? Caspar: Was haben wir gemacht? Stella: Hallo! Wir haben nichts gemacht. Elli: Hallo Caspar. Caspar: Hallo Elli. Direkt gibt es einen Einlauf. Elli: Nein, gar nicht. Aber ich weiß nicht, ob ich mit euch Kart fahren möchte, weil ihr habt ja nicht gewusst in der Folge, wie ich Mario Kart spiele. Caspar: Ob ich gut bin oder nicht. Ja, und? Ich bin furchtbar. Elli: Ihr wollt das nicht mit mir machen. Es ist wirklich, ich bin schon im realen Leben ein sehr vorausschauender und ruhiger Autofahrer. Also ich bin eher so auf der langsameren Seite unterwegs. Aber bei Mario Kart, das wollt ihr nicht sehen. Das ist eine Katastrophe. Stella: Ich habe da gerade eine Idee, das versprechen wir nochmal. Aber du fährst auf gar keinen Fall schlechter als ich. Wir können uns also gerne um den letzten betteln und Caspar ist da wahrscheinlich schon im Ziel. Caspar: Ich überrunde euch einfach. Elli: Ja, ansonsten habe ich hier noch eine Frage. Caspar: Du hast auch noch eine Frage. Elli: Ja, hier steht der Silber dabei, das ist prima. In unserem Doc. War nicht Karnevalsbeginn schon letzte Woche? Caspar: Viva Silicon Weekly steht da auch noch. Ich habe es nicht reingeschrieben. Stella: Ja, ich war es, keine Ahnung. Ich hatte einen Ohrwurm. Caspar: Du rheinische Frohnatur, du. Stella: Ich vor allen Dingen. Als Karneval lieb habe. Caspar: Ja, Rheinländer sind wir alle hier nicht. Stella: Ich wollte einfach irgendwie so ein bisschen fröhliche Vibes mit euch und den ZuhörerInnen teilen. Weil wir haben ja wieder viele Tech-News dabei und die sind ja nicht alle so fröhlich. Und dann, ja, das sind dann... Caspar: Dann können wir die gute Laune ja gleich mit den Updates nach unten ziehen, oder? Elli: Ach man, no. Aber ich habe diese Woche die gute Nachricht vorbereitet. Also es wird wieder, also geht auch wieder bergauf dann. Caspar: Am Ende wird immer alles gut. Stella: Legen wir los. Mir ist eben erst eingefallen, dass das eine super Überleitung sein könnte, weil beim Karneval, beim politischen Karneval, gibt es ja immer die Festwagen, die teilweise auch PolitikerInnen zeigen. Und einer, der da eigentlich zum Standardrepertoire gehört, ist US-Präsident Donald Trump. Und genau um den geht es im ersten Update. Elli: Ihr könnt ja jetzt mal überlegen, zu dem Update passend, was ihr da für einen Karnevalswagen gestalten würdet, da draußen, wenn ihr uns hört. Ich hätte eine Idee, aber die Frage hier nicht. Da kommt einem was Gutes in den Kopf. Caspar: Die kann ich hier nicht äußern. Elli: Wir sind ja ein Tech-Podcast, deswegen geht es um Trump und die Technikwelt. Und zwar, Donald Trump verdient bei Meta, bei Intel, also dem Chip-Hersteller und bei T-Mobile US, das ist eine Tochtergesellschaft von der Deutschen Telekom, mit. Und zwar, indem er privat investiert hat. Das sind alles Firmen, die von seiner Politik ja durchaus profitieren könnten und die wahrscheinlich auch dementsprechend geneigt sind, sich mit ihm ganz gut zu stellen, so, Jetzt kann man sagen, gut, das ist nichts Neues, aber es ist ja jetzt doch was Neues. Stella: Also die sich teilweise auch schon sehr gut mit ihm gestellt haben. Beispielsweise die Telekom-Tochter, die hat schon mal bei den Diversitätsprogrammen, sagen wir mal etwas in Richtung des Sinne des Präsidenten geschraubt, des US-Präsidenten. Also da gibt es schon Annäherungen. Elli: Ja, ich erinnere mich, glaube ich, auch an, meine ich, so an so Spendensachen mal. Caspar: Da baut ja jemand einen Ballsaal. Stella: Genau, da war was. Es geht jetzt aber nicht um den Ballsaal des US-Präsidenten da beim Weißen Haus, sondern es geht um eine Finanzpflichtmitteilung. Das klingt jetzt erstmal hoch, was ist das? Da geht daraus hervor, wie hoch eben die Höhe dieser Investition, wie hoch die Höhe ist, merkt er selber, wie hoch die Investitionen sind, die bis jetzt quasi durch den US-Präsidenten getätigt worden sind. Veröffentlicht hat das Ganze die US-Behörde für Regierungsethik und das Ganze arbeitet auch mit Schätzungsspann. Elli: Ich muss zugeben, ich war erstaunt, dass es diese US-Behörde noch gibt unter anderem Donald Trump. Ja, ja. Aber was hat sie jetzt veröffentlicht? Eine bis fünf Millionen sollen zum Beispiel in Intel-Unternehmensanleihen stecken. Und wer da jetzt einen Interessenskonflikt wittert, dass ein Politiker so viel Geld in ein privatwirtschaftliches Unternehmen steckt, der könnte richtig liegen. Mindestens 500.000 US-Dollar stecken übrigens in T-Mobile US. Und insgesamt hat Donald Trump von Ende August bis Anfang Oktober diesen Jahres, also 2015, 2025, Unternehmens- und Kommunalanleihen im Wert von mindestens 82 Millionen Dollar gekauft. Caspar: Ja, dass das alles ein riesiger Korruptionsskandal ist, muss ich euch, glaube ich, allen nicht erzählen. Es passt aber in das Bild, wenn man überlegt, allein diese Geschichte mit dieser Boeing 747, die Donald Trump aus Saudi-Arabien gerne geschenkt hätte oder auch geschenkt bekommt, die geht ja zum Beispiel dann in seine Privatstiftung über, was auch immer das heißen soll, nach seiner Amtszeit. Also das sind alles so Dinge, ja, eigentlich ist es absolut unfassbar, was da passiert, eben auch mit Blick auf die Tech-Welt und diese Korruptionsgeschichten. Elli: Ja, ich würde mal sagen, aus Sicht der Unternehmen kann das natürlich eine Wün-Win-Situation sein, da spart man sich das Geld für die Lobbyarbeit. Stella: Kommentar von Elli. Caspar: Man muss es nicht verdeckt machen, ist doch auch ganz schön, man kann einfach das überweisen. Stella: Okay, aber wollen wir weitermachen, wir haben ja noch mehr Updates. Wir hätten hier noch was zum Thema Zollgrenze. Aktuell ist es nämlich noch so, wenn ihr Waren im Wert von bis zu 150 Euro aus China bestellt, dann kann das Ganze eben zollfrei in die EU verschickt werden. Was heißt das? Aktuell ist es so, dass Händler in beispielsweise Sendungen aufteilen, dass quasi in einem Paket dann immer weniger als 150 Euro Warenwert sind. Oder dass man den Warenwert auch einfach ordentlich runterrechnet, also geringer angibt, damit eben auch da kein Zoll gezahlt werden muss. Das soll natürlich so nicht sein. Und im nächsten Jahr soll sich das auch ändern. Eigentlich war es so, bis 2028 sollte diese Grenze von den 150 Euro eben gelten. Dann sollte ein einheitliches und digitales Zollmeldesystem kommen. Aber jetzt gab es eben im Wirtschafts- und Finanzministerrat der EU einen neuen Beschluss. Und der besagt, dass schon 2026 diese Zollfreigrenze abgeschafft werden soll. Aber wie genau das aussieht, das ist zum jetzigen Zeitpunkt eben noch nicht klar. Caspar: Ja, das ist insofern vielleicht ganz sinnvoll. Wir haben ja auch schon mal öfter über Temu, AliExpress und Co. Gesprochen und wie die mit den billigsten Dumpingpreisen teilweise ziemlich schrottige Produkte. Das gilt natürlich nicht, das ist jetzt pauschalisiert, das gilt nicht für alles, was aus China kommt, aber weil es diese Marktplätze dort betrifft, in der Regel leider schon und dass die den Markt überschwemmen. Und wenn man dann überlegt, dass unter 150 Euro im Grunde alles zollfrei war, dann muss man sich auch nicht so wirklich wundern und das würde dem jetzt so ein bisschen den Riegel vorschieben. Aber mal gucken, was am Ende wirklich draus wird. Wir updaten euch dann, wenn das dann soweit ist und auch klar ist, ob es noch eine andere Grenze gibt oder wie das dann aussieht. Elli: Yes. Und dann haben wir hier noch ein Update stehen. OpenAI hat man wieder vorgestellt, es gibt ein neues GPT, eine neue Variante von GPT-5. Also das Modell ist immer noch das gleiche, das aktuelle quasi. Aber es gibt jetzt 5.1, das ist ein Upgrade. Was kann das, Freunde? Brauchen wir das? Caspar: Naja, also wenn man es böse sagen möchte, dann wäre das eigentlich das GPT-5, wie OpenAI es hätte vorstellen sollen, als das GPT-5 vor ein paar Wochen oder Monaten rauskam, weil nämlich einige Dinge behoben werden, die stark kritisiert wurden. Wir haben ja auch eine Spezialfolge zu GPT-5 gemacht mit einem Input dazu und dort wurde unter anderem bemängelt, die Tonalität, mit der diese KI spricht, dass sie teilweise sehr langsam ist und dass sie Dinge macht, dass sie zum Beispiel immer wieder diese typischen Sachen macht, wie kann ich dir noch weiterhelfen. Die Spiegelstriche haben wir ja auch schon mal besprochen, dass da ganz viele auch drin waren und so. Und dieses neue Modell 5.1 soll jetzt einfach intelligenter sein, wie OpenAI sagt. Stella: Genau, also das Ganze ist ja jetzt, wo wir aufzeichnen, eine Woche draußen, wenn ich es recht im Kopf habe. Wir nehmen immer mittwochs auf und Donnerstag hört ihr uns ja dann vielleicht, also am 20. November frühestens. Ich muss ehrlich sagen, für mich hat sich jetzt noch nicht in den paar Tagen das große Neue gezeigt in dem Sinne, aber ich finde, es ist auch eher eine Verbesserung. Also das, was da angesprochen wurde, zum Beispiel die Eingaben, die sollen besser bearbeitet werden. Ja, was heißt das denn? Dass eben das, was du eingibst, treffender erkannt wird und treffender der Output daraus generiert wird. Und bei diesem freundlicher und stärker Dialog orientiert, das habe ich in der Pressemitteilung gelesen. Und Caspar, und hab an dich gedacht, weil ich weiß, wir haben darüber gesprochen. Und du hast gesagt, boah, dass ich immer hier gefragt werde und PDF-Erstellung und diese Smileys, ich werde bekloppt. Bei mir persönlich war es auch vorher schon so, dass ich sehr häufig gefragt wurde, wenn quasi das Gespräch aus meiner Sicht beendet war, möchtest du noch eine PDF vielleicht? Soll ich dir das mal zusammenfassen? Und ich frage mich, wie man das steigern möchte. Irgendwie wollen sie es ja steigern mit mehr Nachfragen. Vielleicht sind die Nachfragen da passender und nicht mehr immer nur dieses schreckliche, möchtest du das als PDF haben? Stella: Bei dem Thinking-Modell soll es so sein, dass eben die einfachen Aufgaben besser als solche erkannt werden. Sprich, schneller bearbeitet, weil weniger komplex. Und die komplexen dafür ausdauernder. Also ich würde das mal so übersetzen, einfach ausführlicher, auch da wieder passender Output. Ich glaube aber, da brauchen wir noch ein bisschen Zeit und auch ein paar Anfragen, um das so zu überblicken, ob das jetzt wirklich so eine krasse Veränderung ist oder einfach eine Optimierung. Elli: Ja, aber wenn ihr so wie ich aktuell keine Zahlenden NutzerInnen seid, dann guckt ihr vorerst in die Röhre, denn das Ganze geht natürlich zuerst an zahlende KundInnen raus. Ja, ich bin gespannt. Der Kommunikationsstil soll ja jetzt auch weiter individualisierbar sein. Drei neue Varianten, in denen man den Tonfall festlegen kann, der Antworten. Ja, also gucken wir mal, was bei rumkommt. Caspar: Ja, und dieses Freundliche und Empathische, was ja bei dem Umwechsel von 4 auf 5 bei vielen kritisiert wurde und auch geschrieben haben, das ist nicht mehr mein GPT, ich möchte meinen Freund zurück. So nach dem Motto, das kann ich zumindest ansatzweise jetzt nach einer Woche schon mal ein bisschen bestätigen. Es spricht ein bisschen anders mit einem. Ich kann jetzt nicht sagen, ob es mehr in GPT-4-Richtung geht und ob die Leute, die das vermissen, glücklich sind. Das muss man dann einfach ausprobieren. Aber auch das, wie gesagt, gucken wir uns noch mal an. Stella: Und es bleibt auch dabei, also du hast ja gerade angesprochen, wer eben kostenloser Nutzer ist, der bekommt es jetzt sehr hart gesagt einfach vorgesetzt, weil das neue Modell dann auch zum Standard wieder wird und kann da nicht viel wählen und die Bezahlenden, die AbonnentInnen, die können aber noch auswählen die nächsten drei Monate, sprich, ob sie 5.1 wollen oder 5. Also da hat OpenAI gelernt aus der Übergangsphase. Eins haben wir noch. Elli: Ja, wir bleiben noch ein bisschen bei KI. Stella: Geht auch ganz flott. Wir haben ja mal über Rechenzentren hier gesprochen an der Stelle. Und da wollten wir euch nur erzählen, es soll ein neues Rechenzentrum geben in Deutschland. Es ist von der Schwarzgruppe. Die kennt ihr vielleicht, die steht hinter Lidl und Kaufland. Gebaut werden soll es in Lübbenau im Spreewald, das ist in Brandenburg. Investiert werden sollen 11 Milliarden Euro von der Schwarzgruppe, die übrigens generell sehr versiert gerade ist auf das Thema Cloud, digitale Lösungen. Und bis Ende 2027 soll der erste Bauabschnitt fertig sein. Das ist ein sportlicher Zeitplan. Mal schauen, ob das klappt. Vielleicht auch noch ganz interessant, im Regelbetrieb soll der Strom aus erneuerbaren Energien kommen. Ich dachte erst, Mensch, das klingt ja super. Aber hatte jetzt jüngst in der aktuellen, noch aktuellen Zeit einen Artikel gelesen, unter anderem zum Thema Strom und Stromproduktion. Und tatsächlich das, was so das geringste Problem ist, ist grüner Strom. Deswegen, das klingt so, es ist auch wichtig und richtig, das möchte ich jetzt nicht in Abrede stellen, aber es ist jetzt auch nicht mehr so wow, sondern mehr und mehr geht das auch Richtung Standard. Elli: Und wer sich jetzt noch dafür interessiert, was da passieren soll in dem Rechenzentrum, natürlich geht es um KI, ein Trainingszentrum für künstliche Intelligenz und das mit bis zu 100.000 Chips. Ich habe mal geguckt, es gibt ja noch so ein Bauprojekt, das aktuell in Deutschland auf der Platte steht und zwar ist das die Telekom gemeinsam mit Nvidia, die in München bzw. In der Nähe von München bauen und die wollen 10.000 Chips verbauen, also ein bisschen weniger als die Schwarzgruppe jetzt auf den Teller bringt. Caspar: Ja, und ich glaube insgesamt auch die Schwarzgruppe mit dieser hohen Investition und diesen vielen KI-Chips. Ich glaube, man hat auch gemerkt, dass immer mehr so ein bisschen das Bewusstsein für europäische Lösungen in dem Bereich wächst. Ich glaube, die haben da eine kleine, in Anführungszeichen, Marktlücke aufgetan. Und deswegen wird da auch so viel investiert. Kann ich mir gut vorstellen, dass das ein Verkaufsargument wäre für deren Serverform. Elli: Ja, und die sind ja tatsächlich, das denkt man aber nicht, wenn man so an Lidl denkt und so. Caspar: Das ist eine grisige IT-Firma. Elli: Ich habe jetzt nicht automatisch an IT gedacht, aber die sind da wirklich krass, was die alles schon aufziehen quasi. Caspar: Ja, auch IT-Sicherheitszentrum und so, also da ist, Kompetenz offenbar vorhanden. Elli: Also wisst ihr Bescheid, wenn ihr das nächste Mal bei Lidl einkaufen geht, die machen auch noch andere Sachen. Stella: Oder das Unternehmen dahinter, der Konzern, nicht Lidl selbst. Lust auf ein WTF? Elli: Ja. Das habe ich wirklich zweimal gelesen. Stella: Nicht nur du. Caspar: Nicht nur du und es haben sich zwischendrin auch noch Entwicklungen getan. Es bleibt trotzdem noch ein WTF. Es ist wild. Es ist ein wilder Ritt. Stella: Ja, meine erste Assoziation war so, ist das Spahn am falschen Ende? Dieses WTF hat mehrere Fragezeichen für euch. Also wir fangen mal vielleicht mit Meldung 1 erstmal an, dann gibt es noch Meldung 2 und dann schauen wir nochmal. Elli: Und ich habe vielleicht sogar einen Erklärungsversuch tatsächlich. Caspar: Ui, okay. Elli: Also naja, so eine Idee habe ich. Caspar: Ich fange mal mit dem WTF, also mit der ersten Meldung fange ich mal an, so rum. Die Meldung ist, das britische Umwelt- und Landwirtschaftsministerium, das wird abgekürzt DEFRA, also wahrscheinlich im Englischen dann DEFRA, hat pünktlich zur Abstellung von Windows 10, also dem Ende des Supports. Es ist ja nicht so, dass jetzt alle Windows 10 Rechner ab morgen nicht mehr funktionieren, so nach dem Motto, aber der Support endet ja. Und dieses britische Umwelt- und Landwirtschaftsministerium hat jetzt pünktlich zum Ende des Supports von Windows 10 Windows 10 Laptops gekauft. Und zwar nicht wenige. Ja, richtig gehört. Windows 10 Ende und sie kaufen noch Windows 10 Laptops. Elli: Ja, wir erinnern uns, wenn der Support für ein System endet, dann ist das ein potenzielles Sicherheitsrisiko, einfach weil es keine Updates mehr gibt. Das heißt, wenn Schwachstellen von Kriminellen entdeckt werden, dann können die auch fleißig und fröhlich nutzen, weil sich einfach niemand mehr darum kümmert, dass da Pflaster auf die Lücken geklebt werden quasi. Ja, warum macht man das dann trotzdem, beziehungsweise was genau ist da passiert? Caspar: Ja, das Ganze ist eigentlich eine Modernisierungsmaßnahme und insgesamt hat das ungefähr 350 Millionen Euro, genauer gesagt 312 Millionen bruttische Pfund gekostet. Das sind jetzt nicht nur die Laptops, die dort angeschafft wurden, weil für 312 Millionen Pfund Laptops anzuschaffen, das wäre eine ganze Menge, sondern es geht auch um die Schließung von Sicherheitslücken. Es geht um die Abschaltung von alten Serverfarm, die nicht mehr gebraucht werden oder kaputt sind quasi oder End of Life erreicht haben, wie es so schön heißt. Es geht um die Migration von Altsystemen. Also da gibt es ein offizielles Dokument, wo die ganzen einzelnen Anschaffungen hervorgehen und dort ist dann auch alles aufgelistet, was in diesen 312 Millionen Pfund steckt, aber eben auch diese Windows 10 Laptops, die jetzt angeschafft wurden. Elli: Klingt ja eigentlich mal nicht schlecht, wenn man sagt, 312 Millionen Pfund werden jetzt investiert, dass wir unser Mysterium flott und zukunftssicher machen, was die IT angeht. Caspar: Naja, Windows 10 denkt man jetzt im ersten Moment. Und jetzt könnte man natürlich auch sagen, das ist ein ziemliches WTF, wenn die zum Supportende hin Windows 10 kaufen, weil natürlich kann man den Support noch ein bisschen verlängern auf Windows 10. Aber eigentlich möchte man ja auf Windows 11 umstellen und eigentlich könnte man dafür dann direkt die Hardware kaufen, die schon Windows 11 kann. Das klingt nach einem echten WTF, ist aber jetzt erstmal keins, aber keine Achtung, äh Achtung, wir kommen gleich noch zu einem wirklichen WTF. Ich will einmal nur auflösen, weil das Ministerium hat jetzt inzwischen, genauer gesagt am 14. November, noch ein zweites Dokument veröffentlicht und da einen ganz wichtigen Punkt klargestellt, der am Anfang kommunikativ so ein bisschen untergegangen ist. Ja, man hat Laptops gekauft, ja, auf denen lief Windows 10, aber man hat sie bis zum März 2025 auf Windows 11 umgestellt. So. Insofern, eigentlich ist das ja alles gar kein WTF. Stella: Ja, jetzt haben wir natürlich aber nicht dieses WTF so befüllt, um zu sagen, haha, ist doch kein, sondern das eigentliche WTF, abgesehen von der vielleicht suboptimalen Kommunikation und dem Stolperer mit Windows 10, das kommt jetzt, weil der eigentliche Hammer ist, die neuen Rechner, die wurden angeschafft, um 130.500 Windows 7 Geräte abzulösen. Ja, also Windows 7. Und jetzt habe ich mal nachgeguckt. Was schätzt ihr denn so, wann Windows 7 eingestellt wurde? Caspar: Ich habe extra da nochmal nachgeguckt, wann es vorgestellt wurde, weil mich das nochmal interessiert hat. Das war tatsächlich 2009. Lady Gaga hat zu der Zeit mit Paparazzi in den Charts gesessen. Das ist also auch schon ein bisschen her. Ja und wann wurde es eingestellt, Stella? Seit wann kann man Windows 7 offiziell nicht mehr nutzen oder sollte man nicht mehr nutzen? Stella: 2020. Also das ist fünf Jahre her. Also man muss auch dazu sagen, da wurde offiziell der Support eingestellt, aber Windows, so Microsoft wird eben viel verwendet in Unternehmen. Das heißt, es gab auch da wieder die Möglichkeit zur Verlängerung. Aber so wie ich recherchiert habe, nur bis 2023. Da ist eine Lücke. Caspar: Ja, auch wieder von fast drei Jahren. Das ist keine gute Idee, als Firma oder Behörde oder was auch immer Windows 7 Rechner noch rumstehen zu haben. Und das ist ja das eigentliche, was dabei rauskam, dass über diese ganze Windows 10 Laptop Einkauf Geschichte dachte man, oh, das ist ja nicht so gut. Und dann kam aber raus, die nutzen eigentlich so viele Jahre ein Betriebssystem, was absolut über den Jordan ist quasi, weil du hast es schon gesagt, die Sicherheitslücken sind ein großes Problem, deswegen sollte man als Behörde und als Firma sowas nicht mehr benutzen, vor allem nicht, wenn das Supportende ausgelaufen ist. Als Privatperson kann man überlegen, ob man das macht, als Behörde wirklich nicht. Stella: Also sorry. Pass mal nicht, dass jetzt einer sagt, ich habe bei Silicon Weekly gehört, da kann man machen. Caspar: Nein, nein, nein. Stella: Auch ihr solltet das nicht machen, wenn es überhaupt nicht anders geht. Aber bitte, Sicherheitsupdates machen. Caspar: Ja, und nicht diesen Rechner dann unbedingt im Internet benutzen. Das ist nämlich ein großes Problem. Ja, also insofern, das ist ein sehr schönes WTF. Wie gesagt, ich kann nur den Kopf schütteln. Ein vielschichtiges. Ja, also insofern, ja. Elli: Aber ich vermute mal, ich gebe mich ins wilde Land der Mutmaßungen, Behördenarbeit ist ja oftmals sehr zäh, weil da einfach nochmal Person X drauf schauen muss und Person Y und dann muss hier nochmal drüber abgestimmt werden und da nochmal und ich vermute mal, dass sie quasi, Beste jetzt draus gemacht haben, indem sie jetzt diese Windows-10-Rechner haben, aber halt mit Windows 11 drauf. Weil wenn man sich überlegt, dieses ganze Prozedere geht ja schon Jahre zurück, dass das angestoßen wird. Das sieht man in den Schreiben, die da kursieren, die da veröffentlicht wurden. Das ist seit Jahren ein Thema bei denen. Dementsprechend vermute ich, sie haben quasi so ein bisschen am Ende Schadensbegrenzung gemacht. Okay, wir haben jetzt diese Laptops alle, Aber wir gucken jetzt, dass wir wenigstens das aktuelle Programm auch drauf kriegen. Also er hätte schlimmer kommen können noch. Caspar: Er hätte schlimmer kommen können. Man muss ihn vielleicht auch noch zugute halten. Jetzt am Ende ist ja dann alles gut. Zumindest jetzt für ein paar Jahre, bis dann Windows 11 auch an sein Supportende kommt. Dann sollte man vielleicht ein bisschen früher reagieren. Jetzt kann man natürlich auch sagen, ja, die Politik hat das Geld vielleicht zu spät auch bereitgestellt. Das mag alles sein. Aber trotzdem, Windows 7 kann man einfach nicht mehr benutzen nach 2020. Das ist einfach, geht nicht. Stella: Oder 23. Caspar: Oder 23, ja. Stella: Freunde, falls ihr noch einen Windows 7 Rechner im Einsatz habt. Caspar: Jetzt wäre eine gute Zeit, abzudaten oder Linux zu installieren. Elli: Auf der anderen Seite muss man sagen, man merkt da auch wieder, wie abhängig man von diesen, Update-Zyklen, Software-Zyklen ist, dass man nicht einfach sagen kann, ich kaufe mir jetzt einmal ein Gerät und bin damit sicher, die nächsten zehn Jahre so lange, wie das Gerät vielleicht funktionieren würde. Nein, wenn der Support weg ist, dann guckst du in eine Röhre so ein bisschen. Caspar: Ja, das ist tatsächlich ein großes Problem. Und auch jetzt sagen wir immer, Linux ist dann eine Lösung. Ja, natürlich, aber auch nur teilweise, wenn eine ganz alte Hardware ist und aktuelle Version von Linux da auch nicht mehr drauflaufen, hat man ähnliche Probleme. Ja, also man muss leider Hardware irgendwann erneuern. Das lässt sich wohl nicht vermeiden. Stella: Aber wir gucken jetzt mal auf unseren Input. Es geht um Löwenbabys. Klingt erstmal besser. Caspar: Wie kann man da Nein sagen? Stella: Als es wird. Wichtige Frage an Caspar. Caspar: Ja. Stella: Du arbeitest ja in Bremen. Caspar: Ja. Stella: Ist dir da, vielleicht auf dem Weg zur Arbeit, in den vergangenen Tagen ein Löwenbaby aufgefallen? Caspar: Ohne zu sehr ins Detail gehen zu wollen. Auf dem Weg zur Arbeit ist mir kein Löwenbaby über den Weg gelaufen. Ich habe mich eventuell aber in den letzten Tagen häufig mit einem Löwenbaby beschäftigt, falls du das meinst. Aber nicht, dass ich mit dem Löwenbaby gespielt hätte oder sowas. Elli: Stella, wie kommst du denn jetzt auf ein Löwenbaby in Bremen? Sind wir im Zoo gelandet, oder was? Stella: Nein, Caspar war nicht in seiner Arbeitszeit im Zoo. Ich möchte jetzt hier keine falschen Gerüchte streuen. Und er hat auch nicht mit Löwenbabys gespielt. Caspar: Nein. Stella: Sondern es geht um ein Bild, das auf Social-Media-Plattformen aufgetaucht ist. Und da war nämlich ein Löwenbaby zu sehen auf dem Arm eines Mannes. Und der lehnte an einem weißen Auto. Und es gab auch scheinbar ein Video, wo dann dieses Löwenbaby in einem fahrenden Auto auf dem Schoß des Fahrers turnte. Und warum ich euch das jetzt erzähle und was Bremen damit zu tun hat, das sollte angeblich in Bremen passiert sein. Video hat online die Runde gemacht. Auch die Polizei ist dann wohl auf den Plan gerufen worden, weil... Und ein Löwenbaby ist halt immer noch ein Wildtier. Es ist auch so, wer die hält, der sollte in Deutschland eigentlich den entsprechenden Behörden bekannt sein. Und das ist jetzt kein übliches Haustier, um das jetzt mal so auszudrücken. Elli: Und dann kommt auch noch dazu, selbst wenn es nur eine Hauskatze gewesen wäre, beim Autofahren hat die auf dem Schoß nichts zu suchen. Caspar: Ganz genau. Artgerecht ist das nicht. Also die Polizei hat sich halt gefragt, na kann das stimmen, kann das nicht stimmen? Die sind also so ein bisschen skeptisch da schon rangegangen. Ein bisschen anders sah das bei BILD und WELTV aus, die haben nämlich direkt darüber berichtigt, sich das Video geschnappt und dann las man da zum Beispiel vor sechs Tagen die Überschrift mitten in Deutschland, man fährt mit Löwe am Steuer durch die Stadt. Stella: Warum wir euch das aber jetzt erzählen, ist nicht, weil wir gerne über Löwenbaby sprechen wollten, sondern weil auch bei der Polizei kam wohl schon der Gedanke auf, ob das denn stimmt. Und da machen wir jetzt die Biege zu unserem aktuellen Input-Thema. Es geht nämlich um das Thema KI-Fakes, KI-Material und vor allen Dingen KI-generiertes Erkennen. Und ich glaube euch dämmern schon, das Löwenbaby, das gab es nicht in Bremen. Elli: Das haben tatsächlich die Kolleginnen und Kollegen des ARD-Faktenfinders und des DPA-Teams für Fact-Checking. Naja, also sie haben nicht endgültig gesagt, dass das Löwenbaby an sich nicht existiert, aber Bremen ist schon mal raus aus dem Rennen, so viel kann ich verraten wir gehen da nachher nochmal in die Details einmal was das Bild angeht zum anderen was das Video angeht da gibt es auch eine ganz da wurden wilde, Routen durchs Internet gezogen was dieses Video angeht, aber ihr ahnt schon, wenn ihr jetzt dieses Video gesehen hättet vom Löwenbaby oder dieses Bild, woran hättet ihr erkennen können, ob es echt ist oder nicht. Caspar: Genau, weil das Thema KI-Bilder und KI-Videos und KI-Fakes wird immer mehr und gerade auch in letzter Zeit. Da gucken wir auch gleich nochmal drauf. Und wir reden zwar hier im Podcast immer mal wieder drüber, aber uns wirklich mal hinzusetzen und ganz dezidiert uns genau anzugucken, was kann ich denn aktuell überhaupt noch tun, um Fakes von der Realität zu unterscheiden und was genau wären denn Möglichkeiten. Das wollen wir in diesem Input mal tun. und, Eddie, du hast es schon angedeutet, auf das Löwenbaby kommen wir zum Schluss noch mal als kleinen Cliffhanger. Was denn darin jetzt echt sein könnte und was nicht. Elli: Wenn ihr euch jetzt denkt, mein Gott, KI-generierte Bilder, das ist doch schon seit Jahren Thema. Wir haben 2023 über die Verhaftung von Donald Trump gesprochen. Wir haben Papst Franziskus vermeintlich in einer riesigen Daunenjacke gesehen, damals im Internet und haben alle festgestellt, das ist wohl nicht so passiert. Naja, also beide Inhalte von damals sind viral gegangen und haben vielleicht die einen belustigt. Der eine oder andere ist dem auch auf den Leim gegangen und hat es geglaubt. Mittlerweile muss man sagen, ist einfach die große Problematik, dass KI-generierte Inhalte immer besser werden. Also da, wo man 2023 vielleicht auch nochmal einen Finger zu viel auf dem Bild gesehen hat oder irgendwelche ganz komischen Bewegungen von, ich weiß nicht, falls sich noch jemand ganz, ganz weit zurück erinnert an Sam Smith, der Spaghetti ist. Stella: War das nicht Will Smith? Ja, Will Smith. Elli: Stimmt, stimmt, stimmt. Der Schauspieler versus der Sänger ist, war der Schauspieler. Also da gibt es ein Video, wie er vermeintlich Spaghetti ist und das sieht schon wirklich wild aus. Da konnte man noch lachen und sagen, ja, sehe ich doch, dass das KI generiert ist. Aber jetzt fast forward 2025 ist das alles deutlich schwieriger geworden. Caspar: Ja, ich packe euch die, es gibt einen Zusammenschnitt von damals und heute mit With Mist und den verschiedenen KI-Modellen bis heute. Da packe ich euch mal ein YouTube-Video in die Shownotes. Dann seht ihr mal, was Elli meinte. Da hat sich nämlich einiges getan. an. Stella: Da würde ich doch sagen, wir machen einmal einen ganz kurzen Einstieg und sprechen nochmal drüber, was ist denn das? Was sind KI-generierte Inhalte? Das machen wir ganz flott, damit ihr alle gut abgeholt seid. Also erstmal KI-generierte Inhalte, das können Bilder, Videos und Text sein, die eben mithilfe von KI-Chat-Spots oder mit Text-to-Image oder Text-to-Videotools erstellt worden sind. Um das mal mit ein paar Namen zu unterfüttern, wir wollen jetzt keine Werbung machen, aber wir müssen irgendwie einen Bezug haben. KI-Chatbots, das können ChatGPT sein, Google Gemini, Cloud oder auch Le Chat von Mistral. Elli: Bei den Text-to-Image, also Text-to-Bild-Programmen, da kann man zum Beispiel Midjourney aufzählen. Das ist, glaube ich, eins der bekanntesten. Dann gibt es Nano-Banana, beziehungsweise Flash 2.5, fetziger Name, aber dahinter steckt schlicht und einfach Google. Image Generation in JetGPT von OpenAI, also man kann auch in JetGPT selber Bilder generieren, allerdings auch da meine ich nicht mit der Gratis-Version. Eins pro Tag. Das ist ja richtig viel. Stella: Das ist mein aktueller Stand. Caspar: Das ist wirklich nicht viel. Elli: Und dann gibt es noch die Videotools. Da ist unter anderem seit neuestem dabei Sora 2. Sora gehört auch zu OpenAI. Und Sora ist jetzt in den letzten Wochen und Monaten quasi Talk of the Town gewesen, weil die Videos schon sehr, sehr gut qualitativ waren einfach. Und Google hat Veo 3.1 am Start. Das sind jetzt mal so ein paar Namen hingeworfen, damit ihr, wenn ihr Veo hört oder Sora oder MidJourney, dann wisst ihr, okay, es ist irgendwas mit KI und Bildern in dem Fall, beziehungsweise Bilder oder Bewegtbild. Caspar: Eli, du hast es eben gerade schon gesagt, diese Bilder werden immer besser und ein ganz großes Problem, auch mit ein Problem, warum die so viel werden im Internet ist, es gibt kein echtes Urheberrecht an KI-Bildern. Also KI selber kann kein Urheberrecht für sich erheben, ist ja keine Person, die diese Bilder erstellt hat. Normalerweise, früher war es ja so, wenn jemand ein Bild gemalt hat, war das eine Person und die hat natürlich ein Urheberrecht an ihrem Bild, KI eben nicht. Und das heißt, man kann so ein Bild auch einfach nehmen und dann teilen und das passiert im Internet zwar auch mit urheberrichtig geschütztem Material, aber bei KI noch viel häufiger, wenn man das einfach mal nehmen kann und durch die Gegend schieben kann. Und das heißt, so ein Fake taucht dann viel, viel häufiger auf. Das war unter anderem auch bei diesem Trump und Trump Verhaftung der vermeintlichen und dieser Papst Mantel Geschichte so, dass die plötzlich überall im Netz das gleiche Bild auftauchte, weil einfach die Leute das Wild durch die Gegend geteilt haben. Und das verstärkt das natürlich nochmal enorm. Elli: Also man kriegt nicht juristisch auf die Finger geklopft, wenn man ein KI-generiertes Bild teilt, das eigentlich eine andere Person gemacht hat. Anders als wenn ich jetzt zum Beispiel deren Fotografien oder sowas teilen würde. Da könnte nämlich das Rechtssystem schon sagen, Moment mal, das darfst du jetzt aber nicht teilen, weil das gehört der anderen Person. Ja, soweit mal dazu. Caspar: Kommen wir mal zum eigentlichen Hauptpunkt, wie man denn unter Umständen jetzt noch, obwohl die Modelle immer besser werden, Sachen erkennen kann. Ich fange mal mit dem vermeintlich einfachsten an, dem Text. Jetzt könnte man denken, ach, das gibt es am längsten so Sprachmodelle, das war das erste Großthema, als JetGPT rauskam mit seinem ersten Modell OpenAI. Ja, das Problem ist nur, KI-generierte Texte zu erkennen, ist echt schwierig. Es gibt so Tools, die habt ihr vielleicht auch schon mal gesehen oder davon gehört im Netz, die versprechen, dass du da einen KI-Text hochladen kannst oder generell erstmal einen Text hochladen kannst und die dann für dich herausfinden oder dir anzeigen, ist das KI oder ist das ein echter Text. Das heißt, das Problem ist, ich weiß, ich habe diese Tools immer mal wieder ausprobiert und ich probiere die auch regelmäßig aus, weil die natürlich super wären, wenn die funktionieren würden für Faktenchecks und so. Das Problem ist, ich habe da mal einen Text reingeschmissen, der 100% KI generiert ist, weil ich ihn selber generiert habe mit einer KI. Der wird mir dann in diesen Tools oft als echt angezeigt und andersrum, wenn ich Texte reinschmeiße, die ich selber geschrieben habe, ich weiß also, dass sie echt sind, werden die mir auch gerne mal als 90% KI-Fake angezeigt. Und das ist dann natürlich keine Hilfe von diesen Tools. Stella: An der Stelle die Frage, Caspar, ich kenne auch regelmäßig so Anzeigen, da heißt es dann, ja, ja, wenn du mit ChatGPT einen Text erstellst, dann sind da so geheime Zahlenschlüssel und da wird da irgendwas eingeblendet, angeblich aus ChatGPT kopiert. Ja? Wie ist es? Gibt es da Zahlenschlüsse bei ChatGPT? Caspar: Nein, es gab zwischenzeitlich mal, ich sage mal, einen Bug, sodass ChatGPT beim Kopieren tatsächlich Sachen mitgeschickt hat. Und es gab bisher, und da kommen wir zu unseren Updates, wir haben ja über ChatGPT 5.1 gerade gesprochen, bisher war es so, Stichwort Spiegelstriche, das habt ihr vielleicht schon mal gehört, ChatGPT hat nämlich sehr, sehr gerne Spiegelstriche benutzt, hat Spiegelstriche fast schon geliebt. Bei längeren Texten gab es eigentlich keinen Text, wo kein Spiegelstrich vorkam. Und ich zum Beispiel nutze den Spiegelstrich schon lange vor KI immer auch mal wieder sehr gerne. Wenn du dann auf LinkedIn was gepostet hast, haben die Leute drunter geschrieben, wenn du drei, vier Spiegelstriche benutzt hast, haha, das hat er mit ChatGPT geschrieben. Man kann sagen, dann hätte man zumindest einen Verdacht, dass es ein KI-Text ist. Aber das ist jetzt auch vorbei, weil OpenAI auch gesagt hat, bei GPT 5.1 sollen die Spiegelstriche deutlich weniger werden. Also insofern, daran kann man einen KI-Text dann auch nicht mehr erkennen. Stella: Und auch beim Thema Smilies, das war ja früher auch immer so ein Ding, dass irgendwelche seltsamen Smilies kommen. Bei mir ist es immer noch so, dass teilweise eben im Output, also in dem Ergebnis dann der KI, da irgendwas kommt, wo ich mich auch frage, sag mal, was sollte denn das jetzt für ein Smiley? Aber den, also ich glaube, jeder, der mit KI-Texte bearbeitet, der löschte ja dann raus. Deswegen, also das Einzige, manchmal gibt es immer noch, das muss ich mal bei Mails drüber schmunzeln, wenn da drunter steht irgendwie, soll ich dir das nochmal kürzer fassen? Also wenn man natürlich die Frage mit rauskopiert. Caspar: Dann erkennt man das auch. Das, was wir eben, was wir gesprochen hatten schon, auch bei dem Update, genau. Daran erkennt man es manchmal noch, dass hinten raus dann zu viel von dem Text kopiert würde. Oder auch der Prompt, der Anfangsprompt. Kannst du mir das bitte zusammenfassen? Und dann kommt der Text. Ist auch immer nicht so, aber das ist ja nicht das Problem des KI-Textes, sondern des Anwenders oder der Anwenderin, die davor saß. Aber insofern, es ist bei Texten leider echt schwer und sowas wie wirkliche Fingerabdrücke oder so, die man da hinterlässt, das ist leider in der Regel oft nicht so. Stella: Stand jetzt. Gucken wir mal aufs Thema Bild. Elli: Ja, da könnte man ja jetzt hoffen, es gibt noch ein paar mehr Anhaltspunkte, aber man muss da auch so ein bisschen Bock auf Detektivarbeit haben, muss man sagen. Also es geht, aber ihr müsst schon, wenn ihr so früher so Wimmelbilder mochtet und da richtig gut drin wart, dann ist das was für euch. Wenn ihr nur einmal kurz drüber blättert, ist es auch da mittlerweile sehr schwierig. Caspar: Bei Bildern müsst ihr wirklich auf echte Details gucken und zum Beispiel euch mal den Hintergrund angucken. Schaut mal auf Schriften, wenn die in dem Bild vorkommen, passen die. Bei Schrift ist es oft noch so, dass KI dann mal daneben liegt oder Rechtschreibfehler einbaut. Und achtet auf die Beleuchtung, ist die realistisch? Also eine Lampe, die dann irgendwas beleuchtet, kann das hinkommen? Kann auch der Schatten hinkommen? Achtet zum Beispiel darauf, wenn ihr eine Stadtansicht habt, gibt es die Verkehrszeichen und solche Sachen? Also achtet wirklich auf die Details. Ich habe neulich mit einer Schulklasse ein kleines KI-Quiz gehabt und habe die raten lassen wegen KI-generierten Bildern oder auch nicht KI-generierten Bildern und da hatte ich ein Bild von einem Hund auf einer Wiese und das Bild war KI-generiert und die Schulklasse sollte raten, ob es das ist oder nicht und die waren richtig fit, die haben nämlich auf Details geachtet, das habe ich euch mal mitgebracht. Da kam dann die Antwort, Neas ist KI generiert, weil die Blüten auf der Wiese sind alle gleich weit geblüht. Es gibt keine Knospen und es gibt keine verblühten Blüten. Das ist in der Natur nicht so. Und dann dachte ich, ja, das stimmt. Das wäre mir nie aufgefallen, aber ihr habt recht. Und das war dann auch ein KI-Bild. Insofern achtet wirklich auf solche Dinge. Dann könnt ihr das ein bisschen herausfinden unter Umständen. Stella: Was auch immer hilfreich ist, alles mit Sprache. Also beispielsweise auch so was oder auch Symbolen. Straßenschilder, sind die irgendwie verzerrt, die Symbole da drauf? Macht das vielleicht gar keinen Sinn? Also Schrift auch immer noch, immer noch ein Ding, wie gesagt, verzerrt, stimmt vielleicht nicht. Wenn man mal ranzoomt, erkennt man, die Begriffe ergeben gar keinen Sinn. Richtig fallende Kleidung, auch was. Und der Kamerawinkel nicht zu unterschätzen. Also macht es überhaupt Sinn? Caspar, du hast das Schatten schon angesprochen. Die Aufnahme, ist da vielleicht irgendwas nicht stimmig? Vielleicht der Kamerawinkel eigentlich zu tief? All sowas könnte auch noch mal helfen. Elli: Und dann ist noch die Frage, wir gucken auf die Quelle. Wo kommt das eigentlich her? Da kommen wir auch beim Video vom Löwenbaby, kommen wir da auch gleich noch mal drauf. Aber grundsätzlich guckt auch mal drauf, wer hat das gepostet. Ist das jetzt hier, ich fand das sehr süß, jemand von euch hat das in Stock geschrieben, super sexy Kalle69 als Accountname. Caspar: Vielleicht ist das ein Username von mir. Nein, ist es nicht. Stella: Oh Gott, Gott. Elli: Oh Mann, nein. Aber ist das ein offizieller Account? Vielleicht von einem Medienhaus, von einer Behörde. Aber auch an der Stelle muss man sagen, wie man sieht, Medienhäuser und Behörden sind nicht gefeit vor solchen Fehlern. Guckt im Zweifel auch immer noch mal, gibt es dazu noch irgendwo anders was? Oder zum Beispiel auch hat dieses Medienhaus eine Abteilung für Fact-Checking und wurde die da auch eingesetzt und so weiter. Also das sind alles so spannende Fragen, die man sich an der Stelle noch stellen kann. Caspar: Und falls es Faktenchecks gibt, die könnt ihr auch generell mal bemühen. Es gibt zum Beispiel vom Bayerischen Rundfunkenteam, die heißen Faktenfuchs. Auf deren Webseite, das verlinken wir euch auch in den Show Notes, könnt ihr auch mal drauf gucken, weil die zum Beispiel so Themen, die ganz groß durchs Netz geistern, die gucken die sich an. Wie zum Beispiel neulich diese Kaninchen auf den Trampolinen, die durchs Netz gingen, wo alle dachten, oh, das ist ja ein süßes Video. Und die haben sich das dann zum Beispiel mal genauer angeguckt und festgestellt, nee, es ist leider fake. Oder es gab einen Fan von angeblich Bayern München und ein kleines Kind, was dann geschrien hat, das mag gar kein Fußball mit einer Bayern München-Metze auf, aber das war eben auch nicht echt. Und solche Sachen schauen die sich dann an. Wie gesagt, verlinken wir mal in den Shownotes. Elli: Und du hast es schon gesagt, da gab es das Kind, das geschrien hat. Daraus schließen wir, das war wohl ein Video. Richtig. Bei Videos generell gelten so ein bisschen die Sachen, die wir schon bei den Fotos auch angesprochen haben. Licht, Straßen, Zeichen, Straßenschilder, Texte, Schatten, all sowas. Stella: Hintergründe. Elli: Hintergründe, Details, auch wieder die Kameraposition, aber auch die Bewegung. Sind Bewegungen realistisch? Und da kann man darauf achten, ob sich Gegenstände so bewegen, wie sie sich auch in echt bewegen würden. Ob zum Beispiel Tiere so laufen, wie sie laufen würden. Wasser ist auch immer so eine Sache. Wie sieht es da aus mit Spiegelungen zum Beispiel auch, mit der Bewegung von Wasser? Fährt das Auto, wenn da ein Auto zu sehen ist, fährt das zum Beispiel auch spannend auf der richtigen Straßenseite für das Land, wo es eigentlich sein soll? Caspar: Ja. Elli: Ja, also auch da, man kann so ein bisschen Detektiv spielen, man kann aber auch, und das fand ich sehr spannend, es gibt dann auch Details, an denen kann man sich aufhängen und denken, man hätte jetzt das Detail gefunden, was einem was verrät und dann stellt sich raus, ah nee, ist doch echt, denn auch unsere Realität ist ja nicht immer so, wie wir sie erwarten würden. Ich habe mir zum Beispiel in der Sache Löwenbaby nochmal ein Video angeguckt, wo dann auch jemand drunter kommentiert hat, ja, ist doch ganz logisch, dass das nicht echt ist, da geht ja so ein blauer Streifen irgendwie durch dieses Löwenbaby durch. Wenn man sich aber die Bilder drumherum anguckt, dann hat das gezeigt, Löwenbaby, ob es nun echt ist oder nicht, auf den Folgebildern einen Verband um den Schwanz. Und die Möglichkeit besteht jetzt natürlich, dass das mal kein Verband, sondern ein blauer Gips war zum Beispiel. Würde man jetzt auf den ersten Blick nicht vermuten und sich denken, mein Gott, das ist ja easy, da ist ja so ein blauer Streifen. Und manchmal gibt es aber eben auch Details in der Realität, die man nicht erwarten würde. Also lässt sich das alles nicht so ganz klar sagen. Und das bringt uns auch wieder zum Fall Löwenbaby in Bremen. Denn es gibt eine Sache, die man relativ klar sagen kann. Und dann gibt es eine Sache, wo man sagen kann, nichts Genaues weiß man nicht. Caspar: Naja, ich würde sagen zu 90 Prozent ist der Fall aufgeklärt. Erstmal zu dem Bild selber, was Stella am Anfang erwähnt hat, nämlich der Mann, der da vor dem Bremer Hauptbahnhof mit dem Löwen im Arm als Bild steht. Dieses Bild ist tatsächlich, das kann man auch mit einer einfachen Google- und Google-Streetview-Suche machen, in Bremen entstanden, beziehungsweise die Örtlichkeit, die auf diesem Bild zu sehen ist, passt. Wenn du jetzt der KI sagst, zum Beispiel, sie soll ein Foto vor dem Bremer Bahnhof machen, dann wird das in der Regel nicht 100% passen. Aber da passt ein Straßenschilder, da passt die Kneipe, die zu sehen war auf dem Bild oder die Bar. Da passt auch die Straßenbahnschienen und alles. Das passt also einigermaßen gut hin. Und man muss aber dieses Löwenbaby-Foto sich genauer angucken. Dann fällt nämlich auf, dass die Hand des Mannes ziemlich mit dem Löwenbaby verschmilzt, wenn man da so ein bisschen ranzoomt. Und diese Cocktailbar, die ich gerade schon erwähnt habe, da ist ein Rechtschreibfehler in dem Schild dieser Cocktailbar. Und das passiert. Also ich würde mich wundern, wenn jemand ein Schild drucken lässt, wo ein Rechtschreibfehler drauf ist und das dann auch noch aufhängt und das über Jahre auch noch hängen lässt. Elli: An der Stelle kann man natürlich auch mal Google Street View oder so bemühen und gucken, steht da wirklich in echt auch Cocktailbar oder steht da vielleicht Cocktailbar. Und dann muss man sagen, wenn man sich dieses Profil so ein bisschen durchgeguckt hat, der User, der diesen Account benutzt, der hat in der Vergangenheit ein fast identisches Bild mit der Cocktailbar im Hintergrund ohne Löwenbaby gepostet. Na, riecht ihr den Braten schon? Caspar: Da steht er in derselben Pose, zur selben Zeit, am selben Ort. Der einzige Unterschied ist, dass er, glaube ich, die Hände in der Hosentasche hat und nicht verschränkt mit einem Löwebaby auf dem Arm. Und ganz ehrlich, innerhalb von, wahrscheinlich, ich gebe mir 30 Sekunden, kann ich jedes Foto von mir, kann ich mir ein Löwebaby dank KI inzwischen in den Arm rein retuschieren. Also da können wir wirklich sicher davon ausgehen, dass das ein KI-begeneriertes Bild ist, was so auf einem echten Bild beruht, aber eben mit KI nachbearbeitet wurde. Elli: Ein bisschen spannender wurde es dann beim Video, weil da ist so ein bisschen die Frage, was auf alle Fälle relativ klar ist, dieses Video wurde nicht in Bremen aufgenommen. Wenn man das Ganze nämlich in die Google-Rückwärtssuche wirft, dann zeigt sich, dieses Video wurde schon mehrfach gepostet. Und auch da eben haben die Faktenchecker die Recherche mal durchexerziert und das Video unter anderem im Mai diesen Jahres von einem pakistanischen YouTube-Account gefunden. Hier spannender Zusatz, in Pakistan herrscht Linksverkehr, der Fahrer mit dem Löwenbaby fährt aber ein Auto, was auf Rechtsverkehr ausgelegt ist. Also auch da kann man nicht so wirklich sagen, ist das jetzt der Ursprungsaccount. Naja, wir gehen noch weiter rein. Es gibt dann auch noch einen ähnlichen Videoschnipsel aus einem georgischsprachigen Facebook-Account. Und auf TikTok gibt es die Löwenszene mit einem in Russland zugelassenen BMW. Also es wird verwinkelt und verwurstelt. Caspar: Ja, wir sind noch nicht ganz durch. Elli: Ja, das Medienmagazin Zapp hat zu der ganzen Geschichte dann ein Reel gemacht auf Instagram und darunter schreibt jemand, hey, das Video ist von mir, gib mir die Credits. Auf seinem Profil gibt es auch Löwenbaby und Autocontent und es handelt sich auch anscheinend um das gleiche Auto wie auf den russischen TikTok-Videos. Ja. Caspar: Das heißt, man kann davon ausgehen, dass dieses Video unter Umständen tatsächlich sogar echt ist, aber dass es zum einen nicht in Bremen entstanden ist, zum anderen auch nicht von dem User in Bremen, von dessen Account wir am Anfang gesprochen haben, der das gepostet hat und der die Polizei auch auf den Schirm gerufen hat und die Presse wahrscheinlich nicht von dem, sondern von dem anderen Account genommen und dann einfach gepostet worden. Elli: Und was noch dazu zu sagen ist, natürlich gibt es immer noch die Chance, dass das Originalvideo auch KI generiert ist. Es gibt zum Beispiel einige Stellen, wo das Ohr des Löwens so im Lenkrad zu verschwinden scheint. Aber man kann da nichts Genaues sagen, auch weil die Videoqualität relativ schlecht ist. Und das ist immer so ein Fall, wo dann so FaktencheckerInnen noch mehr Schwierigkeiten haben, am Ende irgendwie ein genaues Urteil abzugeben. Einfach, wenn das eh schon so eine Pixelgrütze ist, dann zu sagen, ob die zwei, drei Pixel am rechten Rand irgendwie falsch sich bewegen, ist einfach sehr schwierig. Stella: Pixelgrütze ist für mich ehrlich gesagt das Wort der Folge. Vielleicht landet es ja im Titel. Caspar: Löwenbaby oder Pixelgrütze? Stella: Oh, das ist ein schöner Titel. Mittlerweile dieser Bremer-Account, da wurde das Video gelöscht, kann auch einen guten Grund haben. Ein Sprecher der Bremer Innenbehörde, der hat nämlich mittlerweile auch davor gewarnt, KI-generiertes Material zu posten, das Polizeieinsätze auslösen könnte. Und wer das macht, der bewegt sich nämlich nicht im rechtsfreien Raum, sondern der muss am Ende womöglich die Kosten für den Einsatz tragen. Also das vielleicht nochmal so als kleiner Spartipp am Rande. Caspar: Genau, weil Löwenbaby am Bremer Hauptbahnhof, das ist natürlich schon etwas, wo man sich sagen kann, das ist vielleicht nicht so klug, wenn ich jetzt mir ein Eichhörnchen auf den Arm retuschiert hätte, dann wäre es was anderes, aber na gut. Zum Schluss noch die Moral von der Geschichte, quasi hinten raus. Wir sind tatsächlich gerade an einer Übergangsphase. Ihr merkt es, am Anfang war KI leicht zu erkennen, drei Arme, 17 Köpfe, 24 Finger und Haare waren ganz schwer. Das ist jetzt langsam vorbei und die Unterschiede zwischen realen Bildern und KI-Bildern verschwimmen. Das merken wir auch daran, dass wir immer noch nicht ganz sicher sagen können, ist dieses Video mit dem Löwen jetzt echt oder nicht. Wir sind uns schlicht und ergreifend alle nicht sicher. Wir haben euch gerade erklärt, was jetzt sicher ist und was nicht, aber das zum Beispiel nicht. Elli: Und was ich an der Stelle noch reinbringen möchte, teilweise wird dieses Verschwimmen zwischen Realität und KI auch ganz bewusst genutzt. Der Journalist Fabian Grischkat, der ist viel auf Instagram aktiv, der hat sich zum Beispiel das mal bei der AfD angeschaut. Und die AfD illustriert ihre Postings gerne mal mit KI. Und da geht es nicht nur um Situationen, die so einfach in der Realität nicht passieren würden oder um so krasse Symbolbilder, irgendwie sowas. Sondern KI wird auch für Szenen und Motive benutzt, für die andere Parteien zum Beispiel einfach auf Stockfotos zurückgreifen. Also sowas wie Landschaften oder eine weiße Taube. Auch die wird da mal gerne KI generiert. Und wenn man sich das überlegt, dann gewöhnen wir uns dadurch vermutlich so ein Stück weit einfach an diesen gesamten KI-Look. Und es wird noch schwerer quasi die Motive wirklich zu sortieren. Ist das echt oder ist das schon generiert? Stella: Dann gibt es ja auch noch zum Beispiel dieses Beispiel mit Foodstylisten. Früher Lack auf die Burger gesprüht, viel gearbeitet und ja, das kann man jetzt auch alles mit KI machen. Wir gehen jetzt auch nicht in den Bereich, was bedeutet das für Fotografen und Jobs. Das ist nochmal was anderes. Caspar: Erinnert ihr euch noch kurzer Einschub? Erinnert ihr euch an den Falafelmann mit den KI-Burger-Bildern oben drüber? Elli: Nee, doch, doch. Wir haben bei uns in der Nähe von unserer ehemaligen Arbeit gab es ein Schnellrestaurant, die auch KI-generierte Abbildungen für ihre Speisekarte benutzt haben. Und tatsächlich da um die Ecke gibt es auch ein Fitnessstudio, da bin ich neulich vorbeigelaufen, beziehungsweise ist das so ein EMS-Trainingsstudio. Und die arbeiten jetzt auch nicht mehr mit Models, sondern mit KI-generierten Models, in Anführungszeichen, wo ich auch kurz gedacht habe, oh, das sieht aber toll aus, das Model. Und dann dachte ich mir so, Moment. Stella: Zu schön, um wahr zu sein. Elli: Es gibt Gründe, warum das so toll aussieht. Caspar: Also ich wollte eigentlich nur einschieben, das ist tatsächlich einfach inzwischen echt schon Teil der Realität und deswegen auch sowas, auch da gewöhnt man sich Stück für Stück an diesen Burgerladen, Da sieht man das leider noch. Das ist jetzt auch schon zwei, drei Jährchen her. Da war das auch noch relativ am Anfang. Da bin ich rein und bin sofort wieder rückwärts rausgefahren, weil ich gesagt habe, okay, das ist eindeutig ein KI-Burger. Das ist kein echter Burger, den ich da sehe. Ein KI-Burger. Elli: Aber vielleicht ist das auch schon so ein ganz guter Part, den wir mitgeben können oder mitgeben wollen, auch am Ende dieses Inputs. Zum einen guckt selber immer zweimal hin, nicht nur bei absurd wirkenden Szenarien, aber vor allem eben auch da. Zum anderen, redet mit Leuten drüber. Ist das, was wir da sehen, gerade echt? Ist das möglicherweise generiert? Wenn Menschen noch nicht so viele Berührpunkte mit KI haben, dann fällt ihnen das vielleicht auch gar nicht auf. Und da kann man natürlich trotzdem immer so ein bisschen das ins Gespräch einbringen. Und natürlich, wenn ihr selbst was mit KI generiert und das irgendwo postet oder weiterschickt, dann kennzeichnet das, denn auch das ist was, was aktuell viel zu wenig gemacht wird im Netz. Und warum wir uns ganz oft diese Frage eben stellen müssen. Ist es KI oder ist es echt? Caspar: Hätte das in Bremen dran gestanden, dann hätte es gar keine Story gegeben. Elli: Und keinen Polizeieinsatz. Caspar: Ja. Elli: Ich würde sagen, wir beenden unsere Sendung mit was, ganz echten aus diesem Internet. Stella: Mit einer Party, einer Öffnungsparty. Jingles: Gute Nachricht. Caspar: Wer hat eröffnet und was? Elli: Wir schneiden mal so eine imaginäre rote Schleife durch. Und zwar wurde im Internet das erste digitale Zentrum für queere Jugendliche in Deutschland eröffnet, am 16. November schon. Wer steckt dahinter? Das Jugendnetzwerk Lambda und die ganze Plattform nennt sich daher auch Lambda Space. Jetzt kann man sich natürlich fragen, warum ein digitales Zentrum? Wenn man sich als junger Mensch anders fühlt und nicht so ganz weiß, wo man hingehört in dieser Welt. Elli: Also zum Beispiel queere Repräsentationen in Filmen oder in Serien ist immer noch weniger. Es gibt ganz, ganz viele Paare in Liebesromanen, Liebesfilmen, wo ein Mann oder eine Frau zusammen sind. Aber sehr viel anderes ist schon sehr viel seltener noch. Und deswegen ist es immer gut, wenn man da irgendwie sich mit Gleichaltrigen und Gleichgesinnten austauschen kann. Das kann aber gerade im ländlichen Raum sehr schwer sein, weil man sich da vielleicht auch einfach nicht traut, irgendwie sich da zu outen oder großartig damit an die Öffentlichkeit zu gehen und zu sagen, hey, kennt ihr jemanden, der da ähnlich ist wie ich? Und deswegen gibt es das Internet. Könnte man jetzt sagen, ja gut, dann sollen sie sich halt in irgendwelchen Foren connecten, die Leute. Das hatte man ja früher auch schon über StudiVZ, Facebook und Co. Ja, grundsätzlich richtig, aber Lambda hat in einer Pressemitteilungseröffnung ganz gut geschrieben, wo da vielleicht eine Problematik liegen könnte. Zitat, der digitale Raum wird zunehmend von Tech-Konzernen dominiert, deren Plattformen auf maximale Profite ausgelegt sind und die sich zunehmend queerfeindlich entwickeln. Nicht der sicherste Ort, das Internet. Deswegen gibt es jetzt eben dieses Google-Zentrum, dieses Digitale. Richtet sich tatsächlich an Menschen von 14 bis 26 Jahren und man hat dort, man setzt dort eben auch diverse Sicherheitsmaßnahmen zum Schutz der Community. Caspar: So gibt es zum Beispiel einen sicheren Messenger, also nicht unverschlüsselt und solche Geschichten. Bei Bedarf gibt es auch offizielle Beratung, wenn das nötig ist, durch Fachkräfte. Es gibt ein mehrstufiges Zugangssystem, also es ist jetzt auch nicht so, dass sich jeder da einfach anmelden kann, um dann fleißig in dieser Art geschützten Forum dann Leute zu beleidigen. Außerdem gibt es, und das ist auch mal sehr wichtig, Echtzeitmoderation durch geschulte Moderatorinnen und Moderatoren, die zwar mit KI unterstützt werden, aber da sitzt halt eben immer noch echt ein Mensch und kann dann in Zweifel, wenn was schief geht in diesem Forum, tatsächlich eingreifen und zum Beispiel Beleidigungen löschen und solche Sachen. Und das ganze Projekt wird auch psychologisch begleitet. Also es ist tatsächlich eigentlich genau, ich musste bei der ganzen Good News so ein bisschen an die Anfangszeit des Internets denken, da hat man sich ja in so Foren getroffen und haben dann auch wirklich... Caspar: Wirkliche, ja, Subspaces sich gegründet zu verschiedensten Themen und Bereichen und Lebenswelten und das war eigentlich immer sehr schön und dann ging so eine Welle los, wo das Internet anfing sehr unschön zu werden. Und wenn jetzt so ein digitales Jugendzentrum es schafft, mit sehr vielen Maßnahmen umgegen, zum Beispiel Hass und so fortzugehen, diese eigentlich ursprünglich mal gute Sache am Internet wieder zurückzuholen und in so eine gute Sache umzuwandeln, dann finde ich das sehr, sehr gut. Und dass das auf großes Interesse steuert, sieht man auch daran, dass zum Start schon 865 Jugendliche und junge Menschen auf der Warteliste stehen, die dort Zugang haben wollen. Also ihr seht, das ist ein geschützter Ort für Communities, die sich austauschen wollen. Das ist immer noch etwas, was im Internet gut ankommt und deswegen drücken wir dem Projekt die Daumen und hoffen, dass das gut vonstatten geht. Stella: Geschützter Raum und unabhängig von den dominierenden Tech-Unternehmen. Caspar: Ja, die im Zweifel zu wenig gegen Hassrede machen. So. Stella: Ich würde sagen, wir schließen uns an und hören uns nächste Woche wieder. Caspar: Ja. Stella: Das würde uns nämlich sehr, sehr freuen, wenn ihr wieder Tech-News haben wollt von uns dreien, dann schaltet wieder ein. Caspar: Ja, und ich packe jetzt mal meinen Koffer, weil wir ja auf Dienstreise gehen ab morgen. Stella: Ich freue mich. Ich packe meinen Koffer jetzt auch noch. Caspar: Sehr gut. Elli: Ja, und ich trage mal schon was in unsere Tabelle ein für eine kleine Sache, die da vielleicht kommt in den nächsten Wochen. Und dann packe ich auch meinen Koffer. Caspar: Okay, ich packe meinen Koffer und ich nehme mit die Ellie und die Stella. Stella: Oh Gott, passen wir da beide rein? Wie groß ist denn der Koffer? Caspar: Nee, das wird schwierig, das wird schwierig. Ich nehme euch so mit unangebaut. Elli: Ich müsste euch, glaube ich, schon arg zusammenklappen, ja. Stella: Aber, falls ihr wissen wollt, was wir denn machen, Spoiler, wir machen leider keinen Urlaub zusammen, sondern wir arbeiten. Caspar: Ja. Stella: Und das seht ihr bei uns bei Instagram. Caspar: Zum Beispiel, genau. Und wir werden hier vielleicht audiotechnisch auch nochmal drüber sprechen, aber das gucken wir dann an geeigneter Stelle. Ja. Elli: Und ich möchte an der Stelle dazu sagen, letztes Jahr hatten wir den gleichen Betriebsausflug, den wir jetzt auch wieder machen. Und das Schöne war, es fing an, pünktlich zum Betriebsausflug dann zu schneien. Es gibt ein wundersüßes Bild von Stella, wie sie da in ihrem gelben Mantel steht und sich freut, dass der Schnee vom Himmel flockt. Und der Wetterbericht hat gesagt, am Wochenende kommt auch wieder Schnee. Also mal gucken, ob sich das wiederholt. Caspar: Wir freuen uns auf unseren Skiurlaub. Stella: Drückt uns die Daumen. Ich habe eben dreimal auf Holz geklopft und wie gesagt, Bildmaterial und vielleicht auch das ein oder andere Tonfest werden wir euch liefern. Caspar: Bis dahin. Macht es gut. Wir hören uns nächste Woche wieder ganz normal, wenn wir da zurück sind und schauen mal, was dann die Tech-News sind. Elli: Bis dahin. Stella: Tschüss. Elli: Tschüss.
silicon-weekly.de
November 19, 2025 at 11:14 PM
Episode 70: Vodafone und der Wandel des Internets
Im Input in dieser Woche klären wir, warum Vodafone den offenen Internet-Datenaustausch verlässt und welche Folgen das für euer heimisches Netz haben kann. Wir zeigen auch, wieso der Schritt besonders kleinere Anbieter im Netz treffen kann und worauf Gamer:innen und Power-User jetzt achten sollten. Außerdem sprechen wir unter anderem über den neuen digitalen Fahrzeugschein in der App, Mario Kart in der echten Welt und einen laufenden Roboterstuhl als Mobilitätshilfe. ### Transkript der Episode _Transkript wird automatisch erstellt_ Jingles: Silicon Weekly, der Tech-Podcast mit den wichtigsten News der Woche. Für dich eingeordnet von Elli, Stella und Caspar. Stella: Neue Woche, neue Folge und ihr seid wieder, ich wollte gerade sagen, live dabei, aber das stimmt nicht so ganz, weil wir zeichnen ja auf, wofür ihr uns dann am Donnerstagmorgen oder zumindest in den nächsten Tagen hören werdet. Wir haben die Tech-Achterbahn voll mit allerlei News. Wir haben einen Input über einen Internet-Knotenpunkt, der, man könnte sagen, uns alle betrifft. Aber in unserer Tech-Achterbahn, eine oder eine, um genau zu sein, ist heute leider nicht mit eingestiegen. Deshalb gleich vorneweg ganz herzliche Grüße an unsere liebe Kollegin Elli. Wir freuen uns, nächste Woche hast du wieder einen Platz hier in einem der Waggons, wenn wir den wilden Ritt beginnen. Caspar: Ganz, ganz vorne. Stella: So und wir stellen uns auch noch einmal vor, ihr habt schon die Stimme gehört, sie ist euch vielleicht vertraut. Es ist natürlich Caspar, der mir diesmal wieder zugeschaltet ist. Caspar: Ja, es ist ganz ungewohnt. Ich sehe dich nur digital. Das haben wir jetzt die letzten gefühlt Monate anders gehabt. Das klingt jetzt wieder so negativ. Nein, es war ja sehr schön. Mal gucken, ob wir das in Zukunft auch wieder häufiger hinkriegen. Heute ging es nicht anders. Ich hatte eine Bahnfahrt und musste schnell nach Hause und solche Dinge. Da haben wir es nicht geschafft, uns live zu sehen. Aber immerhin digital. Ja und ich sehe in meinem Bildschirm Stella, hallo Stella. Stella: Ja, ich muss dich jetzt direkt fragen erstmal, war die Bahn jetzt eigentlich pünktlich? Caspar: Ja, nee, war sie nicht, es war die Bahn, aber es ging, es waren wenige Minuten, es war wieder mal das Problem, dass wir in Hannover am Bahnhof zwar rechtzeitig ankamen, aber dann kein Gleis frei war und wir warten mussten, bis wir einfahren konnten. Wenn du dann den Hauptbahnhof schon siehst und quasi danach greifen kannst, ist das immer besonders ärgerlich. Aber gut. Stella: Das ist immer der beste Moment, wenn alle auch schon aufgesprungen sind. Du stehst an der Tür und dann auf einmal gibt es eine relativ starke Bremsung und dann stehen da alle. Caspar: Aber daran kennt man die Anfänger. Die Anfänger stehen direkt auf und rennen zur Tür. Die Pendler bleiben sitzen, weil sie wissen, es kann auch ein bisschen dauern. Stella: Kleiner Pro-Tipp. Immer in der Nähe der Tür sitzen, dann spart ihr euch auch das im Gang gespare. Aber wir sind ja nicht der Bahn-Podcast eures Vertrauens, sondern der Tech-Podcast. Wir haben, ich glaube, an der Hand fünf knackige Updates mit. Das ist schon eine ganze Menge. Caspar: Eigentlich ist es eine Update-Folge. Wir haben natürlich, du hast es schon erwähnt, den Input, aber es ist eine sehr update-lastige Folge. Ist aber auch nicht verkehrt, weil da sind ein paar spannende Sachen dabei. Stella: Deswegen wollten wir auch alle mitnehmen. Wir haben einen WTF natürlich für euch. Da geht es quasi um Mario Kart, aber irgendwie auch nicht. Also bleibt auf jeden Fall dran. Caspar: Das wird ein bisschen lustiger als sonst. Also es ist was, was ich gerne mal ausprobieren würde. Das können wir auch schon mal spoilern. Stella: Oh, vielleicht wäre das mal wieder was für einen Silicon Weekly Betriebsausflug. Caspar: Ja, ich habe das auch schon in Stock geschrieben. Aber dazu gleich mehr. Stella: Wir haben den Input, wie gesagt, mit dem Knotenpunkt und auch nicht fehlen darf eine gute Nachricht, die so ein bisschen aus der, ich würde mal sagen, Daniel-Düsentrieb-Ecke kommt, wer den Erfinder aus Entenhausen kennt. Aber Caspar, wir legen los mit den Updates. Ja, es ist ein kleiner, aber es ist ein Erfolg zumindest für die GEMA und zwar gegen OpenAI. So fangen wir einmal ganz flott an. Es geht nämlich eigentlich um eine Grundsatzdebatte, die auch was mit Herbert Grönemeyer unter anderem zu tun hat. Er schließt sich vielleicht nicht direkt. Caspar: Das ist ja noch Teil der Sendung, das hätte ich auch nicht gedacht. Aber passt natürlich zu GEMA, das ist die Verwertungsgesellschaft für die Hörerinnen und Hörer, die da noch nie was von gehört haben, die sich um Musikrechte kümmert, einsammelt Gebühren, GEMA-Gebühren zum Beispiel von Radiosendern, die Musik spielen und diese Gebühren dann an die Musikerinnen und Musiker weitergibt oder auch an die Autorinnen und Autoren von Musiktexten. Stella: Die Gesellschaft für musikalische Aufführungs- und mechanische Vervielfältigungsrechte. Caspar: Danke, das war der Name, was GEMA heißt. Ich kann es mir nicht merken. Stella: Und es geht eben, ob Literatur oder Musik, es geht eben um alles, was KünstlerInnen erschaffen und dann quasi in die Welt heraustragen. Aber sie haben ja das Urheberrecht auch da dran. Und genau darum geht es eigentlich auch in Teilen jetzt in diesem ganzen Verfahren mit der GEMA und OpenAI. Was ist da passiert? Also, die GEMA hat in der Nutzung von Songtexten, unter anderem von einem Song von Herbert Grönemeyer, eben eine unerlaubte Vervielfältigung und Wiedergabe gesehen. Das heißt, wenn mit ChatGPT ein neuer Song erstellt wurde, dann kann es sein, dass da vielleicht Songtexte von KünstlerInnen, eben GEMA-relevant sind, zum Training genutzt worden sind. Caspar: JGPT hat auch bisher, das ist der wichtige Hinweis, wenn du nach Liedtexten gefragt hast, dir sehr gerne die Liedtexte ausgespuckt und damit dann auch was angefangen, sie weiterverarbeitet und ähnliche Dinge. Tatsächlich auch zum Beispiel zu Songs von Herbert Grönemeyer. Stella: Und was jetzt aber wichtig ist, das war nicht abgestimmt mit der GEMA oder mit den Urhebern dieser Songtexte, um ganz genau zu sein. Und das ist eben der Fall, um den es jetzt vor dem Landgericht München gegangen ist. Und das Landgericht München, das sieht es eigentlich ähnlich wie die GEMA, hat nämlich gesagt, diese nicht lizenzierte Verwendung von Songtexten in Chat-GPT, das sei eine Verletzung des deutschen Urheberrechts. Jetzt muss man aber dazu sagen, es ist gar nicht per se die Nutzung für die GEMA das Problem, sondern sie will dafür einfach nur vergütet werden, um nämlich auch die KünstlerInnen dann vergüten zu können. Also das ist das, was dahinter hängt. Wie gesagt, Landgericht München hat jetzt quasi erstmal der GEMA quasi Recht gegeben, aber rechtskräftig ist das Urteil noch nicht. Also es kann noch angefochten werden. Caspar: Was hat das nun mit Grönemeyer und auch Rolf Zukowski zu tun? Wir haben es ja gerade schon gesagt, die Liedertexte wurden gerne mal wiedergegeben und sie sind in der GEMA-Klage auch Beispiele für die Nutzung von Liedtexten. Die werden natürlich ganz aus gutem Grund auch bekannte Künstlerinnen und Künstler genommen haben. Und Stella, du hast das, glaube ich, jetzt mal ausprobiert, was jetzt nach dem Urteil ist, wenn ich mit Chatschipiti chatte und nach Liedtexten frage. Was passiert denn jetzt nach dem Urteil, wenn ich zum Beispiel was von Grönemeyer wissen möchte zu einem Liedtext? Stella: Elli hat das für uns ausprobiert. Caspar: Ah, okay. Stella: Da kann es tatsächlich sein, dass dir angezeigt wird, tut mir leid, aber ich kann dir den vollständigen Liedtext von Mensch von Herbert Grönemeyer nicht bereitstellen, da er urheberrechtlich geschützt ist. Aber du kannst dir dann Textstellen anzeigen lassen oder eben den Song zusammenfassen lassen. Also das geht schon noch. Weil das muss man ja auch sagen, ich glaube, es ist schwerlich möglich, Dinge aus Trainingsdaten beispielsweise löschen zu lassen. Caspar: Aber was ich, glaube ich, noch nie gehört habe, ist, dass Chagil Petit gesagt hat, etwas sei urheberrechtlich geschützt. Bitte korrigiert mich, aber das klingt fast nach einer Premiere. Ja, wie gesagt, wir bleiben da dran. Das ist noch nicht rechtskräftig und es ist auch nicht das einzige Verfahren, was die GEMA gerade führt. Sie führt auch ein Verfahren gegen einen Anbieter von KI-Musik. Da haben wir vergangene Woche auch ganz kurz im Update drüber gesprochen. In dem Fall geht es um einen anderen Anbieter. Das Urteil wird auch im November erwartet. Also vielleicht hört ihr in den Updates in den nächsten Wochen auch nochmal davon. Da geht es tatsächlich darum, dass urheberrechtlich geschützte Musik für das Training genutzt wurde, um dann neue Songs zu erstellen. Also auch geht es hier um die Urheberrechte, aber mit ein bisschen anderem Schwerpunkt. Aber wenn wir da was hören, sagen wir Bescheid. Stella: Wir bleiben mal bei ChatGPT. Da haben wir noch ein Update für euch mitgebracht und da gibt es eine Verbindung zur Google-Suche. Die Frage ist nämlich, ob ChatGPT die Prompts in die Google-Suche möglicherweise weiterleitet. Was ist der Hintergrund? Da geht es darum, dass Tech-Analysten in der Google-Search-Konsole Inhalte entdeckt haben, die eben aussehen wie ChatGPT-Eingaben. Keine Sorge, wenn ihr euch jetzt fragt, was ist denn diese Search-Konsole? Was soll das sein? Caspar: Da hattest du mich auch verloren. Stella: Und ich hoffe, ich habe dich jetzt wieder. Das ist eine digitale Anzeige und da können eben Website-Betreiber einfach häufige Suchanfragen sehen, die dann zur eigenen Website führen. Das hat in der Regel was damit zu tun, dass du als Betreiber dann deine Website auf diese Suchanfragen quasi noch besser optimieren kannst oder vielleicht auch merkst, hey, irgendwas scheint der Google-Algorithmus da falsch zuzuordnen. Also das ist so der Hintergrund. Und OpenAI hat jetzt aber, wenn wir zurückkommen zu diesen Prompts in der Suche, da hat es nicht bestätigt, aber wie Heise schreibt, sagte das US-Unternehmen jedoch, dass ein entsprechender Fehler behoben sei. Also quasi ein Fehler, dass das so angezeigt worden wäre. Also was da dahinter steckt, man weiß es nicht. Caspar: Ja, aber so richtig sicher ist da ChatGPT ja sowieso auch nicht. Wir haben hier ja auch schon mal zumindest kurz über diese KI-Agenten gesprochen und haben da ja auch aufgezählt, dass die sehr leicht manipulierbar sind, wenn man ihnen prompt unterjubelt und dann auch gerne mal einfach den gesamten Chatverlauf quasi mit ChatGPT und Co. Weiter teilen. Das betrifft nicht nur ChatGPT, das betrifft auch Cloud mit agentischen KIs und wie sie alle heißen. Aber das ist, ja, ist ein Problem und das wird wahrscheinlich in eine ähnliche Richtung gehen und das muss man im Blick behalten als KI-Anbieter. Stella: Bitte immer auf den Datenschutz achten, Freunde. Teilt nichts einfach leichtfertig mit Chatbots oder KI-Agenten oder auch nicht mit den neuen KI-Browsern, was ihr nicht zum Beispiel auch Caspar und mir erzählen würdet. Caspar: Ja, oh ja, stimmt. Was ihr nicht unterzählen würdet, erzählt das auch keiner KI. Das ist ein schöner Satz. Das müssen wir vielleicht noch als T-Shirt oder Sticker machen. Kommen wir zu einem dritten und sehr positiven Update. Ich weiß nicht, Stella, hast du das schon ausprobiert? Ich habe es ausprobiert. Stella: Hast du? Ich habe es noch nicht ausprobiert. Caspar: Du hast es noch nicht ausprobiert. Okay, dann erzähle ich euch, worum es geht. Weil bei mir hat es erfolgreich und vor allem sofort funktioniert. Ich war ganz baff. Caspar: Es geht um eine App. Und zwar um eine nicht behördliche App. Das wäre vielleicht falsch gesagt. aber eine App, die ein behördliches Dokument abspeichert. Es geht nämlich um die... App iKfz. Diese iKfz-App kann euren Fahrzeugschein digital abspeichern. Nicht den Brief, nicht dieses große Dokument, Zulassungsbescheinigung 1 und 2 heißt das ja offiziell, sondern die kleine Variante, die ihr euch bisher ins Portemonnaie gesteckt habt, die man so aufklappt, wo dann auch alles eingetragen ist, was zum Beispiel beim Auto irgendwie noch verändert wurde und was ihr ja auch bisher bei der Fahrzeugkontrolle vorzeigen musstet. Und bei mir in der Familie ist es zum Beispiel so, wir haben so ein, ich sag mal Familienauto, das ist ein Kombi, das in der Familie immer mal wieder rumgereicht wird, wenn jemand so ein größeres Auto braucht. Und da ist es immer so, oh hast du vergessen den Fahrzeugschein mitzunehmen, der liegt noch da und da oder wo hast du den denn gelassen, ist der hinter der Sonnenblende noch und so. Und das wäre jetzt theoretisch vorbei, weil ihr könnt den dann nicht nur digitalisieren und euren eigenen da reinpacken, sondern ihr könnt den auch mit anderen Menschen teilen und die können das dann in ihrer iKfz-App speichern. Das funktioniert auch relativ problemlos über QR-Code und Link und ihr könnt das auch jederzeit wieder entziehen. Wenn ich jetzt Stella mal meinen Fahrzeugschein schicke, weil ich ihr das Auto leihe, dann kann ich nach einer Woche, wenn sie das Auto zurückgegeben hat, das auch wieder entziehen. Caspar: Und diese Anmeldung und das Eintragen des Fahrzeugscheins, das hat bei mir, wie gesagt, sehr problemlos funktioniert. Ich habe aber auch, und jetzt kommt das aber, einen Ausweis mit der E-ID-Funktion. Also ich habe einen Personalausweis, der relativ neu ist und der hat die E-ID-Funktion aktiviert und freigeschaltet. Ich habe da auch einen Pass- oder PIN-Code vergeben für diesen Personalausweis. Das braucht man nämlich. Man muss nämlich seine Daten eingeben in dieser App, dann muss man den Ausweis ans Smartphone halten, was auch ein Lesegerät, also ein NFC-Chip haben muss, auslesen zu können. Dann muss man seine Pass-Pin eingeben und damit sich identifizieren und dann werden die Daten vom Kraftfahrtbundesamt geholt und in die App gespeichert. Ja, hat wie gesagt problemlos funktioniert. Ich weiß aber auch von Leuten, die, wenn sie nicht diese EID-Funktion haben, dass das dann deutlich schwieriger bis fast unmöglich ist und auch diesen Ausweis erst zu beantragen und dann diese PIN nochmal, wenn man die vergessen hat und so. Da könnte es dann ein bisschen haken bei den Leuten. Alles andere, das wie gesagt hat überstreckenderweise gut funktioniert. Stella: Das ist doch eigentlich schon fast eine kleine gute Nachricht. Übrigens, auch die Perspektive sieht ganz positiv aus. Es soll nämlich so sein, ab 2026 oder ja gesagt im Jahr 2026 ab, das wäre ja sportlich in zwei Monaten knapp, soll eben auch der Führerschein digital werden. Also schauen wir mal, wann das klappt. Übrigens diese Funktion, die Caspar gerade beschrieben hat, funktioniert nur in Deutschland in dem Sinne, wenn ihr mit eurem Wagen ins Ausland fahrt, dann braucht ihr wieder den Papierschein. Also haptisch dabei. Caspar: Wenn ihr hier in Deutschland kontrolliert werdet, reicht es, wenn ihr die App vorzeigt und euren Fahrzeugschein dort in der App. Das hatte ich mich nicht mehr am Anfang auch gefragt. Ist ja ganz süß, dass ich den jetzt in der App habe. Aber was passiert denn, wenn ich in eine Polizeikontrolle komme? Lachen die mich einmal aus und sagen, nee, nee, wir wollen schon Originaldokumente. Nein, es ist tatsächlich so, dass das ausreicht für die Kontrolle. Steht auch in der App nochmal drin. Stella: Das wäre aber auch wirklich, dann wäre ja diese App absolut witzlos. Also wozu brauchst du sie dann? Ich habe noch nie, außer in der Polizeikontrolle, wurde ich noch nie nach diesem Fahrzeugschein, außer eben in der Werkstatt gefragt. Caspar: Ich bin einmal tatsächlich in die Polizeikontrolle gekommen und hatte den Fahrzeugschein nicht dabei und musste den dann noch nachreichen, weil das Auto auch nicht auf mich zugelassen war. Das war nochmal der Grund, warum ich das dann nachreichen musste. Und mit der App wäre mir das eben nicht passiert. Wenn du freigeschalten wirst. Wenn ich freigeschalten gewesen wäre. Stella: Aber gut, wir haben ja noch zwei flotte Updates. Wir machen ganz flott weiter. Wir wechseln ganz grob den Themenbereich, oder sehr hart eigentlich den Themenbereich. Wir gucken auf Meta. Vielleicht kennt ihr, wenn ihr Artikel im Internet auch abruft von verschiedenen Publishern. Und unten auf die Seite scrollt, das steht bei manchen noch so richtig in diesem Oldschool-Facebook-Look so ein Like-Button. Also ein Daumen hoch. Caspar: Ja, ja. Stella: Blau-Weiß. Caspar: Genau, blau-weiß, dieses typische Facebook-Like-Daumen-Hoch-Logo, was man von früher in der Regel einfach wirklich noch kennt, auch aus Facebook heraus. Stella: Wo die Nuller dann immer nochmal grüßen lassen quasi. Caspar: Ja, genau. Stella: Und dieses Logo allerdings nur auf den externen Websites, also außerhalb von Facebook, das soll jetzt verschwinden. Sprich, also dieses Plugin, was dann unter dem Artikel sichtbar ist, das funktioniert dann nicht mehr. Warum das Ganze? Es ist wohl so, aus Konzernsicht soll das Ganze einfach überholt sein. Früher wurde es auch genutzt, um Daten zu generieren, weil damit tatsächlich immer, wenn dieser Button eingebaut ist, auch Facebook oder Meta das Ganze irgendwie tracken konnte. Aber dadurch ist jetzt generell sowieso in den Apps passiert, ist das einfach über die Website nicht mehr so relevant. Und ab Februar 2026 soll dann der externe Like-Button-Geschichte sein. Caspar: Ja, dann kann man ihn zur Grabe tragen. Ich weiß nicht, ob ich froh sein soll darüber oder nicht, weil er war halt wirklich eine Datenkrake. Facebook hat darüber auch außerhalb von Facebook erfassen können, was die Leute im Internet so treiben. Deswegen ist es eigentlich ganz schön, dass er verschwindet. Andererseits, dass er verschwindet, weil sie es nicht mehr brauchen, weil sie an anderer Stelle genug Daten erheben, das macht mich dann wiederum nicht so glücklich. Stella: Muss man sich auch mal fragen, wie viel Daten sie dann an dieser anderen Stelle erheben, dass sie es wirklich einfach abschaffen und noch nicht mal irgendwie einfach ein bisschen weiterlaufen lassen. Übrigens, dieses Tracking funktioniert auch, wenn ihr nicht da drauf klickt. Das ist vielleicht auch nochmal wichtig, dass das nicht von euch als NutzerInnen aktiviert werden muss. Gut, aber bevor wir hier außer Zeit fallen, Update Nummer 5, ganz flott. In Deutschland entstehen neue Rechenzentren. Wir haben schon an verschiedenen Stellen immer mal wieder drüber gesprochen. Und jetzt gibt es eben was Neues. Google will in Dietzenbach in Hessen eine Erweiterung des Datacenters im naheliegenden Hanau bauen. Und auch an den Standorten München, Frankfurt und Berlin soll eben ausgebaut werden. Außerdem möchte die Telekom mit Nvidia in München auch ein KI-Rechenzentrum erzeugen. Kurze Einschätzung nochmal so aus Medienkreisen. Die Begeisterung ist zurückhaltend, würde ich sagen. Also es ist immer noch die Frage im Raum, ob eben diese Vorstöße reichen, damit Deutschland den Anschluss in dem ganzen KI-Game überhaupt behalten kann. Was heißt behalten? Überhaupt mal finden kann. Ich bin viel zu optimistisch hier unterwegs. Entschuldigt. Caspar: Wo wir gut sind, ist die Nutzung von KI. Bei ChatGPT sind wir jetzt zum Beispiel nach den USA Markt Nummer zwei. Dann haben wir den zweiten Platz mit der Nutzung. Deswegen investieren die Firmen hier auch und ich vermute, dass das auch ein bisschen mit Google zusammenhängt, dass wir hier gerne auch KI nutzen und fleißig einsetzen und dann Google herkommt, um hier die Rechenzentren zu bauen, damit die Wege nicht so weit sind. Aber da wechseln wir schon fast über zum Input. Das sollten wir noch nicht tun. Wir sollten erst mal uns das WTF angucken. Stella: Also es ist eins meiner Lieblingsspiele, Caspar, aber ich bin darin so grottig. Also wirklich immer, wenn ich spiele. Und ich glaube, ich habe schon viele Spielminuten gesammelt. Ich bin immer hinten, so Top 3 von hinten. Und zwar geht es um Mario Kart. Caspar, wie ist da so deine Bilanz? Caspar: Ja, ich habe das schon lange nicht mehr gespielt. Ich würde sagen, gutes Mittelfeld. Also ich bin jetzt auch kein Mario Kart Profi. Du wirst mich da nicht immer auf dem ersten Platz sehen. Aber es macht mir auch viel Freude. Also insofern, ich verstehe das. Aber auch tapfer, dass du dann, obwohl du immer hinten liegst, das trotzdem sehr gerne magst. Stella: Ich habe gerade gedacht, Caspar, wenn wir mal eine Runde spielen, dann bist doch du auf dem ersten Platz. Die Bots werden ja immer angepasst. Stimmt, die Bots werden angepasst. Caspar: Ich weiß nicht, wir müssten Elli noch mal fragen, wie gut sie in Mario Kart ist. Vielleicht ist sie diejenige, die dann immer ganz vorne davor fährt. Aber wieso kommen wir auf Mario Kart? Und was hat das mit einem WTF zu tun? Stella: Also man könnte sagen, es ist erstmal so gut, dass hoffentlich niemand so schrecklich fährt wie in diesem Spiel. Aber genau das könnte sich in Zukunft ändern. Es geht nämlich um den französischen VR-Spielhallenbetreiber EFA oder EVA, je nachdem. Caspar: Die Vey, keine Ahnung. Oder wahrscheinlich spricht man es französisch aus. Stella: Also die Schreibweise ist auf jeden Fall EVA in Deutsch ausgesprochen. Und die will eine Art dieses Rennens real machen. Also man muss auch sagen, sie vertreiben das nicht unter dem Dabel Mario Kart, was ja auch von Nintendo geschützt ist, aber das Prinzip eben ... Erinnert sehr an Mario Kart, weswegen wir es jetzt auch so genannt haben. Und die Kollegen von Heise haben es auch so gelabelt. Die Idee ist, dass NutzerInnen dafür echte Karts haben, in denen sie durch echte Hallen fahren. Ca. 500 Quadratmeter groß soll diese Hallen sein. Das entspricht so einem Siebtel von einem Fußballfeld. Oder, das fand ich schwer mir vorzustellen, 50 Parkplätze. Ich finde, das funktioniert von der Vorstellung ein bisschen besser. Caspar: Von einem kleineren Supermarkt. Stella: Genau, quasi. Diese Cards, die sind elektrisch und sind angepasst und zwar an die VR-Brillen, die die NutzerInnen dabei tragen. Das heißt, du sitzt auf deinem Card mit so einer Brille auf und fährst dann da durch. Diese riesige Halle und kannst dann da auch so Items ausweichen, bist auf einer, ja, digitalen Rennstrecke unterwegs und kriegst so eine Art von Mario Kart Feeling, was mich persönlich im Design eher so ein bisschen an Sonic, wer das kennt, erinnert hat. Aber das ist nur persönliche Einschätzung. Caspar: Das heißt, die Halle ist echt, die Karts sind echt und die ganzen Sachen wie diese Bananenschalen und Bomben und sowas, was man von Mario Kart kennt, das wird dann virtuell eingeblendet und ist dann virtuell Und das ist so wahrscheinlich dann auch Mixed Reality. Also echte und spielerische Inhalte werden dann zusammengebracht. Ja, könnte relativ spannend sein. Das Unternehmen möchte das an 60 Standorten verwirklichen. Davon auch zwei in Deutschland. Das hat mich gefreut, nämlich Köln und Unna. Das heißt, unter Umständen könnt ihr mir das wirklich mal ausprobieren. Vier Personen sollen eine Runde spielen können und das dauert ungefähr 20 Minuten. Und ja, Elli hat uns einen kleinen Kommentar dagelassen. Sie hofft, dass man da nicht wirklich auf Bananenschalen ausrutscht und mit Tintenfischen um sich wirft. Und ich habe nur einen riesig großen dazu geschrieben Betriebsausflug. Also vielleicht müssen wir tatsächlich mal nach Köln als Silicon Weekly Team. Zu dritt sind wir dann ja immerhin schon mal. Vielleicht finden wir noch ein paar Leute, die mitkommen. Dann können wir zwei, drei Runden spielen und mal gucken, ob wir in Köln oder Unna die Halle dann unsicher machen. Wir probieren es dann mal aus. Ob das auch wirklich so gut funktioniert, wie die Marketingkampagne das verspricht. Stella: Also ein Testausflug und ich würde sagen, Caspar, dann lass uns doch nach diesem mal lockeren WTF ohne Meta, Musk und sonstige direkt weitermachen mit dem Input. Caspar: Ja. Jingles: Input. Input. Stella: Ich gebe ja zu, es tut mir echt leid, aber so am Ansatz, wenn wir über diese News jetzt einfach mal sprechen, die da lautet, oder die Schlagzeile, Vodafone verlässt öffentlichen Internetknoten. Caspar: Ja. Stella: Leute, schaltet jetzt bitte nicht ab, ich weiß, das klingt trocken, es klingt sehr technisch und ihr fragt euch, was juckt mich dieser Knoten? Wir erklären euch das jetzt, Step by Step. Und er juckt euch, das verspreche ich euch. Caspar: Genau, da steckt nämlich ein bisschen was hinter, was mittelfristig, was kurzfristig eure Internetleitung betreffen könnte, wenn ihr bei Vodafone seid und mittelfristig eventuell sogar das gesamte Internet, so wie wir es aktuell kennen. Um zu verstehen, was an dieser Nachricht so spannend ist, müssen wir wie immer im Input ein paar Schritte zurückgehen und ein bisschen Grundlage bilden. Diesmal reisen wir aber nicht in die Vergangenheit zurück, sondern wir reisen in eine Episode zurück, die wir vor ein paar Wochen schon mal hatten oder Monaten. Es ist fast ein Jahr her tatsächlich, Dezember 2024 war die. Da haben wir nämlich schon mal über die Internetinfrastruktur und sowas wie Internetknotenpunkte und sowas gesprochen. Caspar: Das werden wir gleich nochmal ein bisschen zusammenfassen, aber wenn ihr euch damit ausführlicher beschäftigen wollt, diese Folge ist noch relativ aktuell, da ging es auch darum, wie anfällig die für Sabotage sind, diese Infrastrukturpunkte. Wir fangen jetzt aber mal mit einer Art Beispiel an, warum das vielleicht spannend sein könnte. Vodafone verlässt öffentliche Internetknotenpunkte. Ihr kennt das vielleicht, ihr habt eigentlich eine relativ schnelle Internetleitung, aber obwohl die Internetleitung gut ist und auch euer Speedtest gut ist, läuft zum Beispiel YouTube langsam oder ein anderer Streamingdienst oder ihr seid GamerIn und euer Ping ist plötzlich hoch. Die wissen, was das ist, die werden wissen, was das ist. Alle anderen sei das jetzt noch mal so erwähnt. Jetzt könnte man natürlich denken, okay, wahrscheinlich ist dann YouTube das Problem, irgendwas bei deren Servern oder irgendwas bei dem Game ist nicht in Ordnung. Ja, das kann auch der Grund sein, warum das dann in dem Moment langsam ist und der Rest funktioniert. Es kann aber auch einen anderen Grund geben, nämlich wenn ihr bei der Telekom oder Vodafone seid. Und da steckt genau diese Geschichte mit den öffentlichen Internetknotenpunkten hinter und dass Vodafone sich jetzt entschieden hat, die zu verlassen. Caspar: Denn wir haben ja schon im Dezember über Untersee und Datenkabel gesprochen, ihr habt die Episode gerade schon erwähnt und was wir dort auch sehr prominent erwähnt haben, ist ein sehr bekannter öffentlicher Knotenpunkt des Internets. Er trägt den Namen D-Kix, geschrieben D-E-C-I-X und funktioniert tatsächlich als so eine Art, ja Knotenpunkt trifft es tatsächlich, da treffen ganz viele Internetleitungen zusammen, ganz viele Anbieter auch, YouTube zum Beispiel ist da direkt angebunden, verschiedene Server sind da direkt angebunden, kleinere Internetanbieter sind da angebunden, die teilen sich diesen Knotenpunkt und tauschen dort Daten miteinander aus. Stella: Und es ist ja schon sehr naheliegend, aber damit eben dieser Datenaustausch auch zustande kommen kann, müssen die Netze miteinander direkt verbunden sein. Und das, das passiert zum Beispiel eben unter anderem in Frankfurt, wie Caspar das auch gerade erklärt hat. Kann man sich eigentlich ja, es heißt so gesehen öffentliches Peering, ich finde das kann man sich jetzt, gut, was heißt das jetzt, stellt es euch vor wie so einen großen neutralen Marktplatz, da rennen alle rum und übergeben sich gegenseitig ihre Daten. Ich finde, das ist so bildlich gesprochen mal das Einfachste und da ist eine Sache wichtig auf dem Marktplatz wird ja eigentlich immer verhandelt und gezahlt, da an dem Beispiel aber so wie wir es jetzt euch beschrieben haben, nicht da zahlt nämlich keiner extra. Caspar: Genau, es gibt zwar Gebühren, also diese Daten, dieser Austausch ist natürlich auch nicht kostenlos, aber alle haben quasi das gleiche Recht. Es ist nicht so, dass irgendjemand mit einem besonders großen Stand auf diesem Marktplatz dann weniger zahlen müsste oder mehr oder so. Das ist das Schöne an dieser Geschichte, dieser offene Internetknotenpunkt ist halt eben, wie gesagt, transparent, fair und gleich und ausgeglichen. So und ich habe noch ein paar Daten zum D-Kicks in Frankfurt mitgebracht, damit ihr so ein bisschen eine Idee habt, was das für ein Knotenpunkt ist, weil er ist tatsächlich gemessen am Datenverkehr, habe ich eben ja schon ein bisschen angeteasert, einer der weltweit größten Knotenpunkte und das vergisst man immer so ein bisschen, dass wir da in Frankfurt infrastrukturtechnisch doch einen ganz schönen Klopper haben. Um mal eine Zahl zu nennen, im Jahr 2024 wurden dort mehr als 45 Exabytes übertragen. So und jetzt kommt ein bisschen Mathematik. Was ist ein Exabyte? Ich kann das auch immer nicht fassen, weil das eine Größeneinheit ist, mit der ich in der Regel nichts zu tun habe. Aber ein Exabyte sind eine Milliarde Gigabyte. Das heißt 75 Exabyte sind 75 Milliarden Gigabyte. Und um eine Größe zu bekommen. Caspar: Würde man die Daten, die dort im Jahr 2024 durchgeflossen sind, versuchen auf Blu-Ray-Disks zu brennen. Die hatten ungefähr oder haben ungefähr 25 GB Speicherkapazität, das heißt man bräuchte um ein Jahr Datendurchfluss dort abzuspeichern 1,8 Milliarden Blu-Ray-Disks. Der Turm davon, ich sag mal so, wäre relativ hoch, den man dafür bräuchte. Caspar: Und in diesem D-Kicks-Knotenpunkt sind ungefähr 1100 lokale, regionale und globale Netze angebunden und mit Frankfurt verbunden. Da sieht man also, das ist wirklich eine Vielzahl an Dingen, die da zusammenkommen. Stella: Du hast es gerade angesprochen und ein paar Zahlen mitgebracht. Jetzt frage ich mich aber, wir müssten nur ausrechnen, wie hoch das genau ist. Aber egal. Wozu denn das Ganze nun? Also der Sinn ist dahinter, dass es vereinfacht gesagt möglichst kurze Wege und geringe Latenzen gibt. Das heißt, dass eben die Daten von Anbietern wie YouTube möglichst schnell auf den Servern landen. Oder eigentlich doch. Ja, macht Sinn. Caspar: Ja, vom Server bei uns landen im Grunde. Stella: Genau, vom Server bei uns, bei unserem YouTube quasi landen, wenn wir denn da was schauen wollen oder auch von anderen Plattformen. Und das ist eben, sagen wir so, der bisherige Stand. Aber jetzt kommt der Punkt, über den wir mit euch sprechen müssen. Jetzt wird es ernst. Caspar: Genau. In der Nachricht vielleicht langsam dämmert es euch. Vodafone zieht sich nämlich, und das ist die Nachricht, die wir am Anfang angeteasert haben, komplett aus diesem öffentlichen Datenaustausch zurück. Und zwar noch in diesem Jahr. Sie haben das jetzt Mitte November angekündigt. Also nicht mehr viel Zeit bis Ende des Jahres. Statt jetzt selber sich an diesen neutralen Knotenpunkt anzudocken, was sie bisher getan haben, überlassen sie das in Zukunft einem privaten Unternehmen aus Berlin, der Firma Interlink. Das ist eine sogenannte Vermittlungsfirma. Also die wird jetzt quasi dazwischen geschaltet. Wenn ihr Vodafone Nutzerinnen und Nutzer seid, ist es so, dass euer Internetverkehr bei Vodafone dann erst zu Interlink läuft und von dort aus dann ins Internet geht und zum Beispiel nicht mehr direkt über diesen D-Kicks Knotenpunkt läuft. Läuft. Caspar: Vodafone hat das inzwischen auch nochmal ein bisschen konkretisiert, weil Heise nochmal nachgefragt hat in ihrem Artikel über das Thema und ich zitiere kurz den Heise Artikel. Vodafone hat mitgeteilt, dass nicht alle privaten Peerings eingestellt werden. Also es ist nicht so, dass Vodafone wirklich komplett alles abschaltet und über diese Firma laufen lässt, sondern dass sie mit großen Streaming-Diensten wie zum Beispiel YouTube sowie Hyperscalern, also großen Cloud-Anbietern, das wäre zum Beispiel sowas wie Amazon Rep Services oder so, dass sie mit denen weiterhin direkt verbunden bleiben wollen, ohne dass dann Interlink darüber, dass die Firma Interlink dazwischen geschaltet ist. Aber zumindest für kleinere Anbieter, für kleinere Server und alles, was nicht so groß ist wie YouTube, da wird jetzt sich beim Internetdatenverkehr zumindest was ändern. In Deutschland wird dieser Schritt zuerst durchgeführt und weitere Länder sollen folgen. Stella: Jetzt ist aber die, finde ich, naheliegende Frage doch, warum das Ganze? Also wenn es vorher funktioniert hat, warum braucht man da jetzt was Zwischengeschaltetes? Caspar: Ja, Vodafone hat offiziell drei Gründe, warum sie das tun. Das eine ist, sie versprechen sich geringere Latenz, also eine geringere Verzögerung, was die Daten betrifft. Sie sagen, weil sie ja jetzt zum Beispiel mit den großen Anbietern und Servern direkt verbunden sind, ist es so, dass es dann nicht erst über irgendwelche Knotenpunkte laufen muss oder über weniger Knotenpunkte und deswegen verspricht Vodafone, dass das schneller geht. Außerdem versprechen sie sich eine höhere Ausfallsicherheit. Das kann man ihnen auch wahrscheinlich zugestehen, wenn man mal kurz drüber nachdenkt, je mehr Knoten ich habe, je anfälliger ist es, wenn einer dieser Knoten ausfällt. Reduziere ich die Anzahl der Knoten, reduziere ich natürlich auch die Gefahr, dass da irgendwas ausfällt und Vodafone verspricht sich insgesamt eine Kosteneinsparung, weil sie halt weniger in diesen offenen Marktplatz D-Kicks investieren müssen, weil sie dafür den Datenverkehr natürlich auch bezahlt haben. Wir haben zwar gesagt, sie haben fair bezahlt und wie alle anderen auch gleich, aber sie mussten halt dafür bezahlen. Stella: Also mit anderen Worten, das ist jetzt aber eine Vermutung, ist es dann so, dass Sie über Ihren neuen Berliner Service dann quasi weniger Gebühren wahrscheinlich zahlen? Caspar: Ja, beziehungsweise nochmal neue Verträge aushandeln können und da wahrscheinlich dann für sich bessere Konditionen heraushandeln. Und da kommen wir gleich noch zu, selber auch Gebühren erheben können, wenn man sich mit Vodafone nämlich verbinden möchte. Aber da kommen wir gleich zu. Stella: Das klingt jetzt schon mal so. Aber gucken wir mal, was heißt das denn jetzt konkret für uns NutzerInnen, die wir vielleicht Vodafone Internet einfach im Vertrag haben und das ja jetzt auch nicht einfach mal eben so abstellen können. Caspar: Ja, wir haben gerade YouTube erwähnt, also bei YouTube wird sich wahrscheinlich wenig ändern, YouTube wird immer noch schnell laufen, allerdings kann es sein, dass ihr kleinere Dienste, dass die langsamer werden, zum Beispiel kann es sein, dass Spiele oder Streaming-Anbieter, die eben nicht so groß sind wie YouTube, dass die empfindlicher auf diese Engpässe, weil eigentlich ist es ja auch ein Engpass, den sich Vodafone da macht, sie schalten halt diese Firma davor, die könnten halt wie gesagt jetzt dazu führen, dass das langsamer läuft, als es das bisher tut. Und, da kommen wir jetzt zu dem Punkt, den ich eben gerade schon erwähnt habe, kleinere Anbieter, zum Beispiel kleinere Streaming-Andienste, wenn die sagen, okay, wir wollen aber jetzt trotzdem noch schnell mit Vodafone verbunden sein, wir wollen, dass die Kunden von uns, die bei Vodafone sind, die Kundinnen und Kunden, dass die uns trotzdem schnell streamen können, dann hält Vodafone wahrscheinlich die Hand auf und sagt, ja, das können wir gerne machen, aber das kostet natürlich eine Gebühr. So, und das ist natürlich etwas, was gerade bei kleineren Firmen, YouTube wird das relativ schnell schmerzen können, Die verdienen genug Geld. Aber kleinere Firmen, ja, da ist das ein bisschen was anderes. Aber dadurch, dass sich das auf die Internetgeschwindigkeit von den Kundinnen und Kunden und eben auf kleinere Anbieter auswirkt, heißt das, dass das potenziell ein Schritt ist, der sich eben auf mehrere Millionen Menschen auswirken kann. Stella: Und man muss jetzt aber auch sagen, Vodafone ist nicht quasi der Vorreiter, der das tut und die erste Firma, sondern vor einiger Zeit ist die Deutsche Telekom da in eine ganz ähnliche Richtung gegangen. Caspar: Genau, auch die haben sich gesagt, wir gehen weg von diesen offenen, fairen Strukturen hin zu einer kommerzielleren, kontrollierteren Verbindung. Auch hier wird in der Telekom wurde dann auch direkt, genauso wie es jetzt vor davon vorgeworfen wird, dass das ein Problem mit dem Wettbewerb hervorruft, dass vor allem auch Startups und kleinere Firmen und die digitale Vielfalt in Europa darunter leidet. Das sind jetzt relativ harte Geschütze. Man muss aber auch sagen, dass zum Beispiel mehrere Verbraucherschutzbehörden Beschwerde gegen die Telekom eingereicht haben bei der Bundesnetzagentur, die ja für das Thema zuständig ist in Deutschland. Und ich kann mir auch vorstellen, dass das vielleicht auch noch Vodafone droht, dass die Verbraucherschutzbehörden das tun. Aber da haben wir keine Erkenntnisse, das ist nur eine Vermutung. Und die Verbraucherschutzbehörden haben der Telekom vorgeworfen damals, dass sie eine Netzbremse sei. Das war tatsächlich der Begriff, der da drin stand. Schlicht und ergreifend, weil die Telekom durch diese Umstellung künstliche Engpässe im Netz schafft, die wie gesagt vorher noch nicht da waren. Da war das ein großer Fluss, eine große Leitung und jetzt ist das eine kleinere Röhre geworden, wo die Sachen quasi durchfließen. Stella: Also eine Sache, womit die Unternehmen zusätzlich dann auch Geld verdienen wollen. Caspar, du hast es ja beschrieben, was das eben für Folgen hagen kann, wenn man dann trotzdem so als Website-Anbieter möglichst schnell oder als Plattform-Anbieter eher mit nicht so viel Größe bei den NutzerInnen zu Hause landen möchte. Aber was ist denn auch das dahinterliegende große Problem? Also ist das einfach so, wenn große Provider dieses Modell jetzt übernehmen, sprich sie gehen hin zum kommerziellen, nicht mehr im öffentlichen, wo sie sich jetzt eigentlich jahrelang aufgehalten haben, ja, dann verliert Europa eigentlich einen seiner größten Vorteile im Internetsektor. Caspar: Ja, man muss nämlich dazu sagen, zum Beispiel in Amerika ist das schon länger so, dass es da nicht so ein großes freies Netz gibt. Und Europa hat davon bisher eigentlich immer auch profitiert, weil dieser D-Kicks zum Beispiel, den ich ja schon angesprochen habe in Frankfurt, das ist nicht irgendein Knoten, sondern es ist einer der weltweit wichtigsten und wenn sich jetzt zwei große Player in Deutschland davon zurückziehen, dann ist das schon ein Warnsignal, also dann müsste man, muss man da schon genauer hingucken, weil, wie gesagt, wir haben das ja gesagt, dort sind theoretisch alle Daten gleichberechtigt und wenn jetzt jemand hinkommt und sagt, okay, diese Gleichberechtigung gehört jetzt auf, Wir entscheiden jetzt je nachdem, wer wie viel Geld zahlt, wie schnell die Daten bei unseren Kundinnen ankommen. Das ist schon eine ziemliche Umstellung und das betrifft dann halt eben, wie gesagt, auch die kleineren Firmen und das betrifft vor allem dann auch die Vodafone Kundinnen und Kunden und die Telekom Kundinnen und Kunden. Stella: Ja, ich denke, man kann das auch als eine Art Marktverschiebung eigentlich bezeichnen, die aber von außen wenig gesehen wird. Es ist ja auch, muss ich sagen, da muss man sich erstmal reinfuchsen, das ist komplex, auch wir hätten hier noch wahrscheinlich 20 Minuten länger über die Feinheiten reden können. Caspar: Ja, auch über das Peering hätten wir noch detaillierter und alles reden können, aber wichtig war uns euch zu sagen, da tut sich gerade was und das könnte euch unter Umständen betreffen und wir müssen da gemeinsam alle drauf gucken und schauen, was daraus wird, so nach dem Motto. Stella: Und es ist ja auch aus Firmensicht ganz geschickt gespielt, dass man beispielsweise jetzt so Größen wie YouTube da dann auch zusichert, so nach dem Motto, hey, ihr bleibt weiter schnell, weil natürlich NutzerInnen wollen ja auch, dass solche Plattformen schnell erreichbar sind und das dann eher auf die kleineren abrollt, die dann mehr zahlen müssen. Das ist ja auch nochmal ein Punkt, den man, glaube ich, nochmal deutlich erwähnen muss. Caspar: Kommen wir zum Schluss. Von dem Input noch zu der Frage, was könnt ihr, liebe Nutzerinnen und Nutzer, vielleicht tun, liebe Hörerinnen und Hörer? Naja, also falls ihr bei Vodafone oder der Telekom KundIn seid, könnt ihr, es hängt ein bisschen davon ab, wofür ihr euer Internet nutzt. Wenn ihr jetzt nur ab und zu mal ein bisschen surft, hier und da mal einen Podcast runterladet, uns zum Beispiel, wir werden sicherlich, die Wahrscheinlichkeit ist hoch, dass wir auch über diesen Internetknotenpunkt geflossen sind, um bis zu unseren Hörern und Hörern zu kommen übrigens. Caspar: Wenn ihr das ab und an nochmal so tut und so ein Durchschnittssurfer oder Surferin seid, dann ist die Wahrscheinlichkeit, dass ihr einen großen Unterschied merkt, gar nicht da. Aber wenn ihr jetzt jemand seid, der zum Beispiel häufig große Datenmengen hin und her kopiert und das vielleicht zum Beispiel auch zu kleineren Anbietern macht oder und da habe ich eine Diskussion im Netz gesehen gestern, die ich sehr spannend fand, ein Forscher, der sehr oft Daten von A nach DB kopiert und zwar große Daten und zwar zu einem Server seiner Uni, also kein großer Anbieter. Der hat tatsächlich, als die Telekom umgestiegen ist, Unterschiede gemerkt, weil es eben kein großer Anbieter wie YouTube war. Also wenn ihr in dem Fall betroffen seid oder wenn ihr zum Beispiel GamerIn seid, also viel und schnell spielt und euch die Verspindung zum Server unglaublich wichtig ist. Achtet wirklich mal drauf, ob sich da was ändert in den nächsten Wochen und Monaten, ob ihr da einen Unterschied in der Geschwindigkeit merkt. Und falls ja, es gibt eine Diskussion, ob diese Umstellung ein Sonderkündigungsrecht irgendwie erlaubt. Das ist eine offene Diskussion. Ich bin auch kein Jurist, deswegen gebe ich da keinen Tipp. Ich kann es euch echt nicht sagen. Das müsste man dann entsprechend mal gucken. In Zweifel müsstet ihr aber, wenn ihr wirklich so Hardcore Nutzerinnen und Nutzer seid und davon betroffen seid und merkt, dass es sich unterscheidet zu vorher, eventuell den Anbieter wechseln von Vodafone und Telekom hin woanders. Caspar: Was wir auf alle Fälle machen, was das für uns eine Folge hat, wir beobachten das weiter, wir gucken das weiter uns an. Wir schauen, ob auch andere Firmen diesen Weg gehen, was dann nochmal ein weiteres Warnsignal wäre, weil dann, wenn jetzt Telekom oder Vodafone weg sind von diesen freien Internetknotenpunkten, dann ist das natürlich schon ein riesiger Batzen. Wenn jetzt aber noch O2 und 1&1 dann auch gehen, dann wird es langsam eng. Deswegen gucken wir da schon noch gemeinsam drauf. Und was wir ja auch tun werden, wir gucken auch, was die Verbraucherschutzbehörden tun. Ob die sich auch noch mal melden, ob die auch noch Beschwerde einreichen. Und was vielleicht auch bei der Verbraucherschutzbehörde, bei der Beschwerde bei der Bundesnetzagentur rund um die Telekom rumkam. Und falls sich da was tut, ihr hört es hier bei uns im Podcast. Stella: Ihr hört es in den Updates. Ich ahne schon, das wird dann wieder eine Folge, wo wir fünf Updates vorschalten. Caspar: Ja, das könnte sein, dass wir da nochmal drüber reden müssen. Stella: Ich würde sagen, das war jetzt schon eher so eine Downer-Nachricht. Vor allen Dingen mit dem Ausgang, der ja schon zusammengefasst ist. So ein bisschen so ist, als kannst du im Zweifelsfall nur den Anbieter wechseln. Mehr kannst du nicht tun. Wie wäre es mit einer guten Nachricht zum Nachtisch dieses Podcasts? Caspar: Finde ich gut, zumal die auch wieder mal, ich finde, eine sehr interessante gute Nachricht ist. Jingles: Gute Nachricht. Caspar: Du hast schon Daniel Düsentrieb erwähnt. Es geht aber um eine etwas größere Firma. Es ist jetzt kein privater Bastler. Stella: Nee, aber irgendwie, weiß ich nicht, hat mich das Beispiel da so ein bisschen von der Art her dran erinnert. Caspar: Es könnte auch aus einem lustigen Taschenbuch sein, das stimmt, ja. Stella: Es sieht auch, ich habe mir ein Video dazu angeguckt und ich finde, es sieht auch ein bisschen so aus. Aber worum geht es? Es geht um den Autobauer Toyota und der hat jetzt in einer Studie einen Prototypen eines laufenden Roboterstuhls erarbeitet. Ich beschreibe euch den mal so. Also ich persönlich finde, er sieht so ein bisschen aus wie ein Kinderstuhl. Er hat eine recht runde Sitzfläche und da dran ist so eine Art halbrunde Lehne. Ich würde so sagen, die circa auf Steißbeinhöhe. Außerdem an dieser Sitzfläche sind auch noch zwei Griffe dran. Aber das Spannende sind die vier Beine, die darunter geschraubt sind. Ich würde sagen, recht dick, beweglich. Also sie ändern mich so ein bisschen. Bisschen auch ehrlich gesagt irgendwie an Spinnen oder Käferbeine. Also so richtig so stark sich. Caspar: Ich weiß auch, was du mit Kinderstuhl meinst. Die haben ja oft diese ründlicheren, dicklicheren Beine, die kurzen, ne? Ja. Stella: Genau. Das sieht so ein bisschen, ich weiß gar nicht, Achtung, Markennennung, keine Werbung. Von Ikea gab es glaube ich früher in meiner Kindheit gab es so diese typischen Ikea-Stühle mit so dicken Beinen, mit so einer, sah so ein bisschen aus wie so ein klassischer Holzstuhl. Auch in so quietschigen Farben, daran hat mich das halt erinnert, weil der Stuhl eben auch so einen Grünton hat. Aber zurück zu den Beinen. Die sind eben so beweglich, dass die sich quasi unter den Sitz rollen können. Also es sieht so ein bisschen so aus, wie wenn so eine Schlange sich quasi zusammentüttelt. So sieht es dann aus. Die werden klacken quasi alle in eine Richtung und dann entsteht wie so ein Polster unter diesem Sitz. Aber sie können sich auch selbstständig wieder aufrichten. Also sie sind faltbar und vor allen Dingen, das ist ja das Wichtige, Sie können eben auch laufen. Und das, finde ich, sieht schon ein bisschen spinnartig aus. Caspar: Wofür das Ganze? Also Kinderstuhl wird es ja wahrscheinlich nicht sein. Warum brauche ich jetzt faltbare, rollbare Beine unter einem Stuhl? Stella: Nicht rollbar, laufende Beine. Rollen können Sie nicht. Caspar: Oder laufende Beine. Stella: Das Ganze heißt Walk Me. Und ich finde, der Name, der gibt schon den ersten Hinweis. Es geht nämlich darum, gebeeinträchtigenden Menschen zu helfen im Alltag. Also Toyota hat zum Beispiel auch dieses Anwendungsbeispiel, da sieht man, dass der Einstieg in ein höheres Auto damit leichter gehen soll, denn dieser Sitz, diese Sitzfläche, die kann eben auch angehoben werden, soll sich auch fürs Treppensteigen eignen und diese Beine, die sollen diese Bewegung dann auch selbstständig ausführen können. Also man kann das wohl mit einer Art Joystick, soll da auch eine Schnittstelle bedienen oder mit Tasten direkt am Stuhl. Und man kann es natürlich auch als statischen Stuhl sitzen, aber primär ist es wohl für die Anwendung in Häusern gedacht oder zumindest Indoor. Also es ist jetzt auch nicht irgendwie für schwergängiges Gelände, Outdoor-Wanderung dafür nicht, sondern so für die letzte Meile, die wir dann alle mal auf dem Weg ins Auto, zu Hause zurücklesen wollen und müssen. Caspar: Ja, und wenn ich es hinkriege aus dem Pressebereich von Toyota, ein Bild runterzuladen, wo wir Rechte dann haben für Mediennutzung, dann werde ich das auch in die Kapitelmarke packen und euer Podcastplayer, wenn er das unterstützt, Kapitelcover, zeigt euch dann auch jetzt gerade in diesem Moment das passende Bild dazu an, dann könnt ihr euch das nämlich ein bisschen besser vorstellen. Die Beschreibung war schon sehr gut, Stella, aber als ich ihn jetzt gerade gesehen habe, das hat mir nochmal geholfen zu verstehen, was das ist. Stella: Es ist nicht leicht, das stimmt. Was man aber jetzt dazu sagen muss, als ich mir das Ganze angeschaut habe, ich kann mir schon vorstellen, dass jemand, der Schwierigkeiten hat zu laufen und vielleicht auch einfach zwischendurch mal Pausen machen muss oder gerade ältere Menschen, die mir häufig diese Fußheberschwäche, denen es dann auch schwerfällt, die Beine zu heben, zum Beispiel um in ein höheres Auto einzusteigen, dass das da hilfreich ist. Gleichzeitig musst du so viel Kraft und Körperspannung haben, dass du dich auf diesem Stuhl auch einfach selbstständig halten kannst. Also wer beispielsweise vollständig gelähmt ist, für den ist das definitiv kein Produkt, weil du brauchst eben mit Händen und Oberkörper diese Kontrolle und auch diese Stärke. Und du kannst auch deine Füße da nicht irgendwie abstellen oder so. Sondern es ist wirklich... Als würde man sich wahrscheinlich auf einen Küchenstuhl setzen und der würde dann plötzlich loslaufen. Zudem ist das Ganze auch bisher, wie eingangs gesagt, eine Studie. Das heißt, es gibt einen Prototyp, aber Details wie beispielsweise Genauheiten zur Technik, Feinheiten der Technik oder Details zum Preis, das ist alles nicht öffentlich. Caspar: Ja, wird noch kommen und wie du auch sagst, das ist kein typischer Ersatz zum Beispiel jetzt für einen Rollstuhl, dass man jetzt damit dann in Zukunft durch die Gegend läuft. Aber wie du sagst, das ist eine gute Alternative, weil auch gerade dieses Bild, ich werde wahrscheinlich auch das nehmen, wenn wir die Rechte dafür kriegen, wo die Person durch diesen Stuhl besser einen Zugang zum Auto bekommt, da sieht man dann relativ gut, wofür das glaube ich auch gedacht ist. Und ja und auch wenn du ein paar Abers gerade noch hattest, ich finde das eine sehr coole Idee, und auch die Neonfarben die sie dafür gewählt haben, auf den Bildern gibt es den verschiedenen Neonfarben, ob die dann auch so kommen werden, weiß man natürlich nicht ja aber das ist natürlich ganz cool und wenn der dann auch, einigermaßen bezahlbar wird das ist ja immer noch so eine Frage, da bin ich gespannt drauf und auch mal den Prototypen Status verlassen kann oder wird dann könnte das tatsächlich eine Hilfe für viele Menschen werden. Stella: Genau, deshalb haben wir uns auch überlegt, machen wir das mal zu einer guten Tüftler-Nachricht, so zum Abschluss dieses Podcasts. Und ja, Caspar. Caspar: Apropos Abschluss, wir schreiben jetzt Elli, wann wir zum Mario Kart fahren. Stella: Ja, wann wir uns nächste Woche treffen. Caspar: Es stimmt, wir haben nämlich nächste Woche tatsächlich einen Betriebsausflug. Stella: Ja. Caspar: Das stimmt, wir sehen uns ja tatsächlich und wir fahren nach München gemeinsam zu einer Podcast-Konferenz. Stella: Wir treffen uns in München. Caspar: Stimmt, wir treffen uns. Wir fahren nicht gemeinsam. Du fährst anderweitig. Stella: Aber wir sehen uns dann da vor Ort. Ihr werdet noch herausfinden, was wir dort tun. Und keine Sorge, es gibt selbstverständlich dennoch am nächsten Donnerstag eine ganz normale neue Folge, ob voller News oder mit Input. Lasst euch überraschen. Aber es wird auf jeden Fall wieder tech-relevant und leicht locker erklärt sein. Oh, das war jetzt Eigenlob. das wollte ich gar nicht, tag relevant und schaltet wieder ein. Caspar: Wir hören jetzt auf, bevor Steady hier noch in Lobhulei kommt. Entschuldigung. Folgt uns in den Socials, folgt uns in eure Podcast-App, lasst eine Empfehlung da, lasst eine Bewertung da, empfehlt uns in euren Freundes- und Familienkreis und wenn ihr uns finanziell unterstützen wollt bei Steady, freut uns das auch sehr. Ja, soviel noch. Kleiner Disclaimer hinten raus. Stella: Also schaltet gerne nächste Woche wieder ein und ich würde sagen, bis dahin, tschüss. Caspar: Macht's gut. Ciao. Jingles: Das war's schon wieder für diese Woche. Folgt oder abonniert uns gerne in eurer Podcast-App und lasst uns dort eine Bewertung da. Das hilft uns sehr. Bis zum nächsten Mal.
silicon-weekly.de
November 12, 2025 at 11:12 PM