AlgorithmWatch CH
banner
algorithmwatchch.bsky.social
AlgorithmWatch CH
@algorithmwatchch.bsky.social
We ensure that the use of algorithms & AI benefits the many, not just the few! Join us 🤍

🇨🇭 We’re the Swiss part.
🇪🇺 For EU/Germany: @algorithmwatch.org

DE: https://algorithmwatch.ch | FR: https://algorithmwatch.ch/fr
Der Preis von KI für Klima & Umwelt ▶️🎬

Die Politik hat es in der Hand. Bundesrat und Parlament können mit gezielten Massnahmen nachhaltige KI fördern.

Mehr zum Thema ⤵️
algorithmwatch.ch/de/themendos...
November 14, 2025 at 6:01 AM
📺🗞️📻 Ob in der Tagesschau, in diversen Newsportalen oder beim Radio: Die Medien berichteten in den letzten Tagen zahlreich über unsere Umfrage zur Haltung der Schweizer Bevölkerung zum Ressourcenverbrauch von Rechenzentren. Der Bericht bei SRF: www.srf.ch/news/wirtsch...
October 29, 2025 at 9:23 AM
💥 KI-BOOM – Umfrage zeigt: Schweizer Bevölkerung ist besorgt über Ressourcenverbrauch von Rechenzentren! Der Bundesrat ist jetzt gefordert: Fortschritt und Klimaschutz dürfen sich nicht behindern, sondern müssen Hand in Hand gehen. Ergebnisse & Schlussfolgerungen ⤵️
algorithmwatch.ch/de/ressource...
October 27, 2025 at 2:28 PM
🎤 Auf dem hochkarätigen Panel von #Dialog2030 diskutiert @angelamueller.bsky.social zusammen mit Vertreter*innen von Bund, Parlament, Wirtschaft und Wissenschaft, wie wir gemeinwohlorientierte KI-Innovation schaffen.
📌 4. Nov., Eventfabrik Bern
➡️ Programm & Anmeldung: www.are.admin.ch/de/dialog2030
October 23, 2025 at 8:00 AM
«KI macht es zunehmend einfacher, unsere ganze Informationswelt mit Müll zu fluten und problematische, diffamierende und manchmal auch illegale Inhalte zu erstellen», sagt @angelamueller.bsky.social im Tages-Anzeiger: www.tagesanzeiger.ch/antisemitism...

#PlattformregulierungCH
October 21, 2025 at 1:10 PM
L'utilisation d'algorithmes influence la vie des personnes de multiples façons. À l'occasion de la #JournéeInternationalePourLÉliminationDeLaPauvreté, nous mettons aujourd'hui en lumière ses effets sur les personnes en situation de précarité.
October 17, 2025 at 7:00 AM
Der Einsatz von Algorithmen beeinflusst das Leben von Menschen auf vielseitige Art. Zum heutigen internationalen #TagFürDieBeseitigungDerArmut beleuchten wir die Auswirkungen auf Menschen in prekären Lebenssituationen. 🧵 👇
October 17, 2025 at 6:00 AM
Der Einsatz von biometrischen Überwachungssystemen überschreitet eine rote Linie! 🖐🛑

Die Unterscheidung von «Gesichtserkennung» und «Gesichtsabgleich» ist unnötige Haarspalterei. Denn beide können erhebliche Auswirkungen auf unsere Grundrechte haben.

🗞️ www.tagesanzeiger.ch/gesichtserke...

1/2
October 13, 2025 at 3:31 PM
How can the risk of discrimination in #AlgorithmicHiring be reduced❓ Within the Horizon Europe project #FINDHR we have developed guidelines, methods and technical solutions for the responsible development and use of algorithmic recruiting systems.
👉 algorithmwatch.ch/en/findhr/#g...
September 25, 2025 at 8:48 AM
Diskriminierung durch KI bei der Personalauswahl ist ein Lose-Lose-Szenario, dass nicht nur auf technischer Ebene gelöst werden kann. Was die Politik tun kann, zeigen wir (Horizon-Europe-Projekt #FINDHR) in unserem Toolkit für politische Entscheidungsträger*innen. ⤵️
algorithmwatch.ch/de/findhr/#t...
September 19, 2025 at 8:00 AM
Wir: Warten seit März 2024 auf den Entscheid des Bundesrats zur Regulierung von Social Media und Suchmaschinen.

Bundesrat Rösti: 👇
September 17, 2025 at 10:46 AM
Was können Software-Entwickler*innen tun, um algorithmische Biases in ihrer Recrutingsoftware zu vermeiden? 👾 Unser praktisches Toolkit gibt Handlungsempfehlungen rund um #AlgorithmicHiring und ordnet die Rechtslage in der EU für Entwickler*innen ein: algorithmwatch.ch/de/findhr/#t...
September 15, 2025 at 7:00 AM
Der zunehmende Einsatz von KI-basierten Recrutingsystemen, #AlgorithmicHiring, verspricht Zeitersparnis, birgt aber auch Risiken. Unser neues Toolkit ordnet ein und gibt konkrete Empfehlungen für HR-Verantwortliche, um #AlgorithmischeDiskriminierung zu vermeiden: algorithmwatch.ch/de/findhr/#t...
September 12, 2025 at 5:30 AM
KI, die Job-Bewerbungen vorsortiert?

🔎 Im Rahmen eines europäischen Forschungsprojekts haben wir Tools, Trainings und Empfehlungen entwickelt, um Diskriminierung zu reduzieren, wenn KI in der Personalauswahl zum Einsatz kommt.

Das sind unsere Ergebnisse: algorithmwatch.ch/de/findhr/
September 4, 2025 at 7:28 AM
⚡ Les systèmes de «police prédictive» promettent de prédire les crimes sur la base de données criminelles historiques. Mais qu'est-ce que cela signifie dans la pratique?

👉 Lire maintenant: «Police algorithmique: présomption de culpabilité anticipée»: algorithmwatch.ch/fr/police-al...
August 20, 2025 at 7:00 AM
⚡ «Predictive-Policing»-Systeme versprechen, Verbrechen vorherzusagen – basierend auf historischen Verbrecherdaten. Doch was bedeutet das in der Praxis?

👉 Jetzt lesen: «Algorithmische Polizeiarbeit: Vorauseilende Schuldvermutung»: algorithmwatch.ch/de/algorithm...
August 20, 2025 at 5:00 AM
Die Branche der Rechenzentren wirbt mit Wirtschaftswachstum – doch hält sie dieses Versprechen?

Die Fellows von @algorithmwatch.org‬ Raluca Besliu, Aniket Narawad und Anna Toniolo, haben diese Frage untersucht.

👉 EN: algorithmwatch.ch/en/story-eur...
👉 DE: algorithmwatch.ch/de/story-eur...
July 31, 2025 at 2:58 PM
#comingsoon: tools for fairer algorithms in recruitment for HR professionals, developers, and policymakers. Nearly 3 years, we have been investigating how to effectively mitigate algorithmic discrimination in recruiting ➡️ stay tuned and sign up for the FINDHR newsletter findhr.eu/contact/
July 29, 2025 at 8:08 AM
Gemeinsam mit Intersections haben wir gestern die praxisorientierte Methode für einen verantwortungsvollen KI-Check, «HUMAN», vorgestellt. So unterstützen und befähigen wir Unternehmen und Behörden dabei, ihrer Verantwortung beim Einsatz von KI gerecht zu werden.   ➡️ algorithmwatch.ch/de/human/
June 26, 2025 at 9:55 AM
Parce que la #DiscriminationAlgorithmique reste souvent invisible, nous avons élaboré un formulaire de signalement pour rendre visibles les cas de discrimination algorithmique.

Tu as été confronté? Signale ton cas à #AlgorithmWatch: algorithmwatch.ch/fr/signaler-...
June 10, 2025 at 3:30 PM
Weil #AlgorithmischeDiskriminierung oft unsichtbar bleibt, haben wir ein Meldeformular erarbeitet, um Fälle algorithmischer Diskriminierung sichtbar zu machen.

Hast du #AlgorithmischeDiskriminierung erfahren? Dann melde deinen Fall an #AlgorithmWatch: algorithmwatch.ch/de/algorithm...
June 10, 2025 at 3:00 PM
And here the story in English: t1p.de/a0k4f
May 23, 2025 at 8:30 AM
Zwei der journalistischen Fellows von @algorithmwatch.org,
@michaelbirdwrites.bsky.social & Nathan Schepers, sind in einer investigativen Recherche in einen besonderen Schwarzmarkt eingetaucht. Gehandelt wird dort nicht mit Drogen oder Waffen, sondern mit Clickwork-Accounts. Reportage👉 t1p.de/h7ynq
May 23, 2025 at 8:24 AM
En septembre, nous avions appelé le Conseil fédéral à protéger contre la discrimination par l'IA. algorithmwatch.ch/fr/ia-appel-...

Le Conseil fédéral a envoyé un signal encourageant: il portera une attention particulière à la discrimination par l'IA. www.parlament.ch/fr/ratsbetri...
May 20, 2025 at 2:30 PM
Im Herbst haben wir unseren Appell für den Schutz vor Diskriminierung durch KI dem Bundesrat übergeben: algorithmwatch.ch/de/ki-appell...

Letzte Woche sendete der Bundesrat ein erfreuliches Signal: Er wird ein besonderes Augenmerk auf Diskriminierung durch KI legen.
www.parlament.ch/de/ratsbetri...
May 20, 2025 at 2:11 PM