Hluboké učení zasahovat tam, kde se to počítá

Jak jsme vytvořili smyčku zpětné vazby k optimalizaci učení nudge

(Marianne Sorba) (14. srpna 2018)

Učení není snadné. Abychom to trochu usnadnili, spustili jsme (In-Course Help), poskytující behaviorální a pedagogické postřehy, když se studenti pohybují v učebních materiálech. V tomto příspěvku se věnujeme našemu procesu a poznatkům při implementaci smyčky zpětné vazby strojového učení pro přizpůsobení a optimalizaci těchto pohybů.

V první implementaci nápovědy v kurzu všichni studenti v daném bodě v daném bodě kurz – například absolvování přednášky 9 kurzu A nebo selhání kvízu 3 kurzu B – obdržel stejnou zprávu. To nám umožnilo zasáhnout způsoby, které byly v průměru užitečné , a posunout jehlu nad pokrokem a udržením kurzu.

Ale pozorovali jsme také heterogenitu dopadu napříč studenty a zprávami. Odpovídajícím způsobem ve světě, kde zprávu dostali všichni studenti v daném bodě daného kurzu, jsme si dávali pozor na zavedení příliš velkého počtu zpráv.

Pro další implementaci jsme vytvořili smyčku inteligentní zpětné vazby kteří žáci dostali každou zprávu. Tento model je neurální síť, která bere jako vstup širokou škálu funkcí, včetně následujících:

  • Míra prokliku v minulosti žáka pro různé zprávy
  • Její demografické údaje ( např. pohlaví, věk, země, úroveň zaměstnanosti, úroveň vzdělání)
  • její údaje o chování na platformě (např. zda je zápis zaplacen, jazyk prohlížeče, počet absolvovaných kurzů)
  • Vlastnosti na úrovni kurzu (např. Doména, obtížnost, hodnocení)

Pomocí těchto funkcí model předpovídá, jak je pravděpodobné, že konkrétní žák najde konkrétní typ vyskakovací zprávy užitečné na určitý bod jejího učení. Pokud předpovídá, že zpráva bude mít dostatečně pozitivní dopad, spustí ji; jinak zprávu drží zpět. Váhy modelu a jeho předpovědi se každou noc aktualizují, zatímco náš tým pro vědu o datech spí – velké zlepšení oproti základní linii komplexních a dlouhodobě vnořených testů A / B, přičemž tým provádí manuální úpravy intervencí na základě pozorovaných výsledků. Systém zpětné vazby se také přirozeně rozšiřuje, aby nám umožnil vybrat si z více verzí zprávy, kterou lze odeslat ve stejném bodě stejnému žákovi, čímž se spustí pouze ta verze, u které se předpokládá nejpozitivnější výsledek pro žáka.

Dnes máme dvě úrovně filtrování: filtrování na úrovni stavu položky kurzu, které rozhoduje o tom, které zprávy budou udržovány, protože jsou dostatečně užitečné, a filtrování na úrovni stavu uživatelské položky kurzu, aby bylo možné přizpůsobit, ke kterým zprávám studenti v kterémkoli daném okamžiku učení.

Stručně řečeno, pro každý možný posun v každém stavu položky v každém kurzu model úrovně stavu položky kurzu předpovídá průměrnou pravděpodobnost, že student najde zprávu užitečné na základě minulých interakcí se zprávou a daty na úrovni kurzu. Intuitivně, pokud model předpovídá, že zpráva není dostatečně užitečná, tuto zprávu v daném spouštěcím bodě zcela zadržíme (za předpokladu, že počet zobrazení je dostatečně velký). Toto filtrování na úrovni spouštěče je zvláště užitečné, když rozšiřujeme náš inventář zpráv, protože automaticky detekuje a filtruje zprávy, které nejsou užitečné – nebo nejsou pro konkrétní třídu nebo spouštěcí bod.

The Course-item- model na úrovni stavu je vrstvený pod podobnou smyčkou zpětné vazby, která filtruje na úrovni stavu uživatel-kurz-položky. Vezměte si jednoduchý příklad: Chceme vědět, zda poslat konkrétní zprávu Alanovi v určitém bodě jeho cesty učení. Pro výklad zvažte zprávu, pro kterou přímo shromažďujeme pomoc od studenta, kterou sám hlásím. V současné implementaci existují tři možnosti.

  1. Alan mohl být náhodně vybrán (dnes s pravděpodobností 10%) pro přijetí zprávy bez ohledu na to ; Tím je zajištěno, že máme pro model dostatek nestranných údajů, abychom se mohli i nadále učit – a vylepšovat – každou noc.
  2. Alan mohl být náhodně vybrán (dnes s pravděpodobností 90%), aby zprávu potenciálně obdržel, ale Alan je nový student a stěží interagoval s našimi zprávami. Protože o něm nemáme dostatek údajů, abychom mohli spolehlivě předpovědět, pošleme mu zprávu, aby shromáždil data.
  3. Alan mohl být náhodně vybrán (se stejnou pravděpodobností 90%), aby zprávu potenciálně obdržel, Uživatelé a interagovali s dostatkem zpráv ALICE pro model, aby vytvořili spolehlivou předpověď.Na základě údajů z Alanova profilu žáků a jeho předchozích interakcí se zprávami nápovědy v kurzu pak model vygeneruje tři pravděpodobnosti: a) pravděpodobnost, na kterou Alan klikne, „Ano, to bylo užitečné“; b) pravděpodobnost, že Alan klikne, „Ne, to nebylo užitečné“; c) pravděpodobnost, že Alan neinteraguje se zprávou.

Zprávu pošleme, pouze pokud a) dostatečně překročí b) ac). Dnes smyčka zpětné vazby zadržuje asi 30% zpráv a zvyšuje poměr užitečných a nepotřebných zpráv o 43%.

Takže co bude dál?

Nejprve provedeme iteraci optimalizační funkce. Výše uvedený příklad uvažuje o optimalizaci pro pozitivní absorpci výzvy k akci (buď hlášení zprávy bylo užitečné, nebo kliknutí na doporučení). U některých postrčení však může a měla by být optimalizační funkce dále po proudu. Pokud například vyzveme studentku, aby si zkontrolovala důležitý materiál, její kliknutí prostřednictvím poskytnutého odkazu nám neposkytne dostatečné informace o tom, zda tento materiál k recenzi skutečně pomohl jejím studijním výsledkům – pouze o tom, zda se řídila naším doporučením. U těchto typů intervencí rozšiřujeme optimalizační funkci tak, aby zahrnovala následné výsledky učení, jako jsou dokončené položky.

Zadruhé, s tímto integrovaným zabezpečením proti selhání, pracujeme na brainstormingu a zavádíme nové druhy intervencí. Vzhledem k tomu, že model automaticky vybírá, které pobídky budou dál a kde a pro koho, můžeme prozkoumat nové způsoby, jak zapojit studenty, věřící, že ti, kteří nejsou nápomocni, budou účinně zadrženi.

Zájem o uplatnění datová věda ke vzdělávání? Coursera hledá kandidáty !

Napsat komentář

Vaše e-mailová adresa nebude zveřejněna. Vyžadované informace jsou označeny *