Skip to main contentdfsdf

Jan Eggers

Factorial Funds | Under The Hood: How OpenAI's Sora Model Works

Technische Beschreibung des Sora-Modells und Schätzungen der Trainings- und Inferenzkosten.

Shared by Jan Eggers, 3 saves total

Jan Eggers

Large language models can do jaw-dropping things. But nobody knows exactly why. | MIT Technology Review

Emergente Fähigkeiten - woher kommen sie? Wie eine Maschine, die Tokens vorhersagt, dazu in der Lage, intelligente Antworten zu produzieren?

Shared by Jan Eggers, 17 saves total

Jan Eggers

Principled Instructions Are All You Need for Questioning LLaMA-1/2, GPT-3.5/4 (PDF)

Preprint einer Forschergruppe aus Abu Dhabi, die verschiedene Grundprinzipien beim Prompten empfiehlt - u.a. die "Motivation" (aka Bestechung oder Bedrohung).

Shared by Jan Eggers, 1 save total

Jan Eggers

ChatGPT fails in languages like Tamil and Bengali - Rest of World

Tamil und Bengali werden von vielen Millionen Menschen gesprochen - sind aber in ChatGPTs Trainingsdatensatz massiv unterrepräsentiert; entsprechend begriffsstutzig ist die KI.

Shared by Jan Eggers, 1 save total

Jan Eggers

2023-7-9 arXiv roundup: LLMs ignore the middle of their context, MoE + instruction tuning rocks

"Davis summarizes papers" über eine Studie, die Indizien findet, dass Sprachmodelle eher den Anfang und das Ende des Kontextfensters berücksichtigen und alles dazwischen weniger stark beachten.

Shared by Jan Eggers, 1 save total

Jan Eggers

ChatGPT Is Nothing Like a Human, Says Linguist Emily Bender

Porträt der Computerlinguistin Emily Bender, die den Begriff stochastic parrot entwickelt hat

Shared by Jan Eggers, 49 saves total

Jan Eggers

Propaganda in der modernen Politik: Wir sind in einer neuen Ära der Propaganda - DER SPIEGEL

Kluger Überblick über die digitale Wortergreifungsstrategie der Neuen Rechten

Shared by Jan Eggers, 1 save total

Jan Eggers

Paper tables with annotated results for Are ChatGPT and GPT-4 General-Purpose Solvers for Financial Text Analytics? A Study on Several Typical Tasks | Papers With Code

Bloomberg hat mit Riesenaufwand ein Sprachmodell auf GPT-3.5-Niveau mit eigenen Finanzdaten trainiert - nur um am Ende bescheinigt zu bekommen: GPT-4 ohne Feintuning und ohne Bloomberg-Daten ist über praktisch alle Aufgaben besser. Link zum Studien-PDF; Bewertung in Kapitel 5 am Anfang.

Shared by Jan Eggers, 1 save total

Jan Eggers

Universal Intelligence: A definition of machine intelligence

Übersicht über Ansätze, (maschinelle) Intelligenz zu messen, die über den Turing-Test hinausgeht - der empfindlich ist für Wahrnehmungsfehler.

Shared by Jan Eggers, 1 save total

Show more items

Highlighter, Sticky notes, Tagging, Groups and Network: integrated suite dramatically boosting research productivity. Learn more »

Join Diigo