home

LLMs neigen dazu, Datenbeschränkungen willkürlich zu setzen, während ein Mensch diese Grenzwerte natürlicher und kontextabhängiger bestimmt.

Key Takeaway: LLMs neigen dazu, Datenbeschränkungen willkürlich zu setzen, während ein Mensch diese Grenzwerte natürlicher und kontextabhängiger bestimmt.

  • Cookie- und Datennutzung: X und Drittanbieter setzen Cookies, um einen besseren, sichereren und schnelleren Service zu bieten. Einige Cookies sind unbedingt erforderlich, andere ermöglichen Serviceverbesserungen.
  • Benutzeroberfläche & Registrierung: Option, sich mit Google oder Apple zu registrieren, oder einfach einen Account zu erstellen. Durch die Registrierung stimmen Benutzer den Nutzungsbedingungen zu.
  • Was gerade passiert: Trending-Hashtags und Themen werden angezeigt (z. B. „Moin“, „Tehran“, „Starmer“, „Littler“). Aufruf, etwas zu sehen, indem mehr Inhalte angezeigt werden.
  • Inhalt des Posts: Tweet von @GrantSlatton mit der Caption: “graphical analogy: current LLMs have bad taste at where to draw abstraction boundaries suppose data flows through your system like pic 1 LLMs tend to make kind of arbitrary abstraction boundaries like pic 2 whereas a human might do more like pic 3”. Drei zugehörige Bilder, die die Unterschiede zwischen LLM‑ und menschlicher Abstraktionsgrenze veranschaulichen.
  • Technische Hinweise: Hinweis, dass bestimmte Datenschutz‑Erweiterungen Probleme auf X.com verursachen können und deaktiviert werden sollten.

Quelle: Twitter