Es geht launig in den Januar mit "Was denkst du denn?" - also über weite Strecken unter den gegebenen Umständen. �
Zwei Neuerungen haben wir für 2026:
1. Wir sind erstmal raus bei Steady, solange Auszahlungen nur über PayPal laufen
2. Zu Februar sind wir auch raus bei Spotify
#Podcast #Philosophie
Episode 171: Paternalismus und...
Es geht launig in den Januar mit "Was denkst du denn?" - also über weite Strecken unter den gegebenen Umständen. �
Zwei Neuerungen haben wir für 2026:
1. Wir sind erstmal raus bei Steady, solange Auszahlungen nur über PayPal laufen
2. Zu Februar sind wir auch raus bei Spotify
#Podcast #Philosophie
Episode 171: Paternalismus und...
Ihr versteht grundsätzlich etwas nicht: Eine LLM kann keine Schlussfolgerungen ziehen. Das sind Gelabermaschinen, die NICHT denken, sondern nur Text produzieren können:
ChatGPT, Heute:
https://telegra.ph/Alice-und-Max-01-07
Wir Menschen sind inzwischen so dumm, das wir auch solche offensichtlichen Fehler nicht merken.
#AI #KI #denken #logik #philosophie #llm
Sorry, geh sterben, Menschheit.
Ja, das mit der Wahrheit und Verlässlichkeit ist ein guter Punkt. Aber auch da finde ich nicht, dass das Problem ein Alleinstellungsmerkmal von KI bzw. LLM ist. Insbesondere, wenn man die vorherigen Beiträge im Thread noch im Kopf hat:
"Ultra-schwachsinnige Aufsätze gehören zu den meistzitierten. Ihr müsst halt selber gucken, ob es Schwachsinn ist, oder nicht." (bezog sich wohl noch nicht auf Aufsätze von LLM, sondern höchstens über LLM)
oder:
"Denn nur weil das Theorien waren, mit klaren Statements (Regeln, Gesetze) und Vorhersagen, konnte man sie auch widerlegen."
-> was folgt daraus für wissenschaftliche Aussagen unterhalb von Theorien? (s. 3. Screenshot und wie lange hat es bis zur Widerlegung gedauert bzw. hat auch Chomsky "widerrufen")
oder:
Man darf nicht jede Polizei-PM für wahr nehmen! (diese taz-Mahnung richtet sich an journalistische Kollegen und scheint für nötig gehalten worden zu sein)
https://taz.de/Umgang-mit-der-Polizei-in-Medien/!6036641/
...
Ihr versteht grundsätzlich etwas nicht: Eine LLM kann keine Schlussfolgerungen ziehen. Das sind Gelabermaschinen, die NICHT denken, sondern nur Text produzieren können:
ChatGPT, Heute:
https://telegra.ph/Alice-und-Max-01-07
Wir Menschen sind inzwischen so dumm, das wir auch solche offensichtlichen Fehler nicht merken.
#AI #KI #denken #logik #philosophie #llm
Sorry, geh sterben, Menschheit.