banner
bildungsdings.bsky.social
@bildungsdings.bsky.social
"Seit dem ich das Wort Dings kenne,..." Irgendwas mit Bildung. Einfach machen!
#EduBB #blueLZ #twLZ
Zumindest müssen sie informiert werden. Ob ich eigene Empfehlungen aussprechen würde, weiß ich nicht. Wahrscheinlich würde ich das zumindest als Möglichkeit in den Raum stellen. Aber das ist eine private Entscheidung der Personen, nichts schulisches mehr.
November 7, 2025 at 2:00 PM
*Wohl für...
🫣
November 6, 2025 at 5:37 PM
Ordnungsmaßnahme wenn der Uploader zweifelsfrei erkennbar ist. Gleiches wenn die Spieler erkennbar sind.

Das wären mir zu viele Ebenen, auf denen Verstöße stattfinden, deshalb keine Erziehungsmaßnahme mehr.
November 6, 2025 at 2:34 PM
Und wenn es um Dokumente geht, gibt es AI als Erweiterung zu einem Dokumentverwaltungstool:
stadt-bremerhaven.de/paperless-ai...
Paperless-AI: KI-gestützte Dokumentenverwaltung für Paperless-ngx
Das papierlose Büro kann man heutzutage mit etlichen Tools erreichen, Paperless-ngx ist eines davon. Doch es ist nicht immer alles Gold, ...
stadt-bremerhaven.de
November 6, 2025 at 11:16 AM
Verwendet wird dort LM Studio statt Ollama. Ich hab das noch nicht selber ausprobiert, kann dazu also nichts sagen.
November 6, 2025 at 11:10 AM
Habe ein Video gefunden, was ein wenig weiter geht. Wenn du also mehr Geld für Hardware ausgeben willst oder schneller arbeiten oder mehr Zugriffe, dann gibt es da ein paar Tipps von der c't.
Wo für Anfänger, aber ist doch schon ziemlich technisch. Es ist keine Anleitung.
youtu.be/ii8Npn8H2BQ?...
Lokale KI ist jetzt WIRKLICH brauchbar (und auf dieser Hardware läuft sie)
YouTube video by c't 3003
youtu.be
November 6, 2025 at 11:10 AM
Danke, der PR ist in dem betroffenen Bezirk leider keine Hilfe und selbst bei den eigenen Aufgaben nicht sehr kompetent.
November 6, 2025 at 11:00 AM
Klingt cool.

Ich lasse mir meine Texte und Anschreiben meist anonym mit Frau/Herr X* erstellen, selbst wenn der Spaß lokal läuft und nichts nach außen geht. Das nachher auszutauschen ist eine Kleinigkeit und ein Datum weniger.

*oder andere Kürzel, und dann "alle ersetzen" in der Textverarbeitung
November 5, 2025 at 12:34 PM
Ich weiß nicht genau welchen speziellen Kontext du da haben möchtest, aber die Nutzung von vorhandenen Modellen dürfte da in der Regel ausreichen und deutlich sinnvoller sein, mit den richtigen gelieferten Daten und Prompts.

Außer du hast ein eigenes Rechenzentrum, was du zeitweise nutzen kannst😉
November 5, 2025 at 7:26 AM
Das dürfte in keinem Verhältnis zum Nutzen stehen, selbst wenn man Rechenleistung mietet.Abgesehen davon brauchst du noch ausreichend Trainingsmaterial und vor allem Zeit,um eine ansatzweise sinnvolle Anzahl an Parametern zu haben.

GPT4 nutzt 1,6 tausend Milliarden (die deutsche Billion) Parameter.
November 5, 2025 at 7:26 AM
Ich kenne Leute, die nutzen die Pro/Premium Varianten der kommerziellen Anbieter. Da kann man Projekte/Räume/... erstellen, denen man fix ein paar Dokumente reingibt und die dann immer einbezogen werden.

Da.hast du dann aber wirklich Kosten von normalerweise 200+x € im Jahr.
November 5, 2025 at 6:23 AM
Welche Kosten meinst du?
Das Ding und die Modelle sind OpenSource.

Bei mir läufts auf einem Laptop aus dem Jahr 2017 nebenher, der hat also schon ein paar Jahre auf dem Buckel.

Ob die vorhandenen Modelle für deine Anforderungen passen, kannst du wahrscheinlich nur selber herausfinden durch testen.
November 5, 2025 at 6:23 AM
RAM ist der Knackpunkt, aber auch überschaubar:

"You should have at least 8 GB of RAM available to run the 7B models, 16 GB to run the 13B models, and 32 GB to run the 33B models."
github.com/ollama/ollama
GitHub - ollama/ollama: Get up and running with OpenAI gpt-oss, DeepSeek-R1, Gemma 3 and other models.
Get up and running with OpenAI gpt-oss, DeepSeek-R1, Gemma 3 and other models. - ollama/ollama
github.com
November 5, 2025 at 6:07 AM
Die richtige Rechenleistung brauchst du zum Training. Das Ausführen der Prompts auf eine bestehende Datenbasis läuft auf einem Laptop.

Schau mal nach Ollama. ollama.com
ollama.com
November 5, 2025 at 6:07 AM