od Gyfis » 13. 6. 2017 20:47
Já jsem byl spolu s @petrbel na tomto termínu. Měl jsem otázky:
Základy složitosti a vyčíslitelnosti - Hladík - Polynomiální algoritmy a silná NP-úplnost: V přípravě jsem vypsal definice silné NP úplnosti, restrikce problému a pseudopoly algoritmu, vypsal jsem myslím všechny definice které byly potřeba. Načrtnul jsem si pseudopoly alg. pro Baťoh a důkaz že TSP je silně NP-úplné (převod z Hamiltonské kružnice). Pak přišel zkoušející a začali jsme to procházet - z toho co jsem napsané neměl chtěl slyšet příklady silně a nesilně NP-úplných problémů, důkaz že TSP je silně NP úplné mu stačil slovně, co ale chtěl pořádněji byl pseudopoly alg pro Batoh. Nejdřív tedy zadefinovat ten problém (pak přišel Majerech s tím, že potřebuju rozhodovací problém aby vše bylo košér, takže úprava optimalizační verze), potom načrtnout tabulku a popsat co a jak se přepisuje na co. V tom jsme se trochu zahrabali, ale nakonec to nebyl takový problém.
Přírodou inspirované počítání - Neruda - NEAT: Dostal jsem za úkol nejdříve popsat obecně neuroevoluci, jak se k tomuto tématu přistupuje a jaké problémy se řeší (např. obtížné křížení), a potom jsme se dostali k NEATu. Zkoušení bylo víceméně formou diskuze, ale dostali jsme se celkem do hloubky (např. jak by se dal modifikovat NEAT aby ještě trochu lépe řešil tagy hran). Zmínil jsem i HyperNEAT, z čeho měl zkoušející zřejmě radost.
Datové struktury - Majerech - Haldy: Zkoušející si po "hození kostkou" mnou navrhnutým číslem přečetl dané zadání z papíru, znělo Haldy, závorka regulární a binomiální, a ty přesně chtěl. Zkoušení bylo nečekaně netechnické, stačily idei všech výpočtů hloubek. Např. u linearity konstrukce d-regulární haldy jsem řekl, jak by se počítala (suma hloubky a počtu vrcholů na dané úrovni stromu), pan Majerech se chvíli zamyslel, řekl že tomu věří pro d=2 a víc není potřeba. Chtěl jsem více mluvit o líných bin. haldách, ale nebylo potřeba.
Strojové učení - Vomlelová - Pravděpodobnostní přístupy v ML: Musel jsem se doptat, co chtěla paní Vomlelová pod touto otázkou slyšet, na což mi bylo řečeno že chce MAP a maximum likelihood napsat vzorečky. A potom že si mám připravit něco z klasického supervised learningu, protože si myslí, že to nebude stačit. Zkoušení bylo vcelku důkladné a vydalo se směrem do hloubky pochopení látky (např. které se používá, zda MAP nebo maximum likelihood a podobné otázky), přes to jsme se ale nakonec probourali k supervised learningu, kde jsem mluvil o bias-variance trade-off, také parametrické a neparametrické metody (tady chtěla slyšet příklady z obou skupin metod). Připravil jsem si i odvození naive bayes, které zkoušející prošla bez větších komentářů - usuzuji, že to nebylo to, na co se chtěla při zkoušení zaměřit. I když zkoušející vypadala, že by nejradši ještě něco slyšela, nakonec to stačilo. (Celková známka byla 1, takže to stačilo nejspíš velmi dostatečně).
Neuronové Sítě - Božovský - Backprop: Poslední mé zkoušení a jedno z posledních toho dne, zkoušející mi zadal tuhle otázku a při zkoušení jsme se bavili hlavně o principu, jak funguje backprop, proč děláme derivaci, rozdíly mezi lokální a globální chybou, proč může error růst při učení apod. Při přípravě jsem napsal error funkci, ta se sešla, a také nějaké odvození vah, ale to ho vůbec nezajímalo, šel spíše po principu a pochopení.
Celkově skvěle zorganizované zkoušení, nestalo se mi, že bych delší dobu čekal bez zadané otázky. Příjemné mi přišlo, že se opravdu nevyžadovaly technické detaily, ale šlo se po podstatě zkoušené látky.
Já jsem byl spolu s @petrbel na tomto termínu. Měl jsem otázky:
[b]Základy složitosti a vyčíslitelnosti - Hladík - Polynomiální algoritmy a silná NP-úplnost:[/b] V přípravě jsem vypsal definice silné NP úplnosti, restrikce problému a pseudopoly algoritmu, vypsal jsem myslím všechny definice které byly potřeba. Načrtnul jsem si pseudopoly alg. pro Baťoh a důkaz že TSP je silně NP-úplné (převod z Hamiltonské kružnice). Pak přišel zkoušející a začali jsme to procházet - z toho co jsem napsané neměl chtěl slyšet příklady silně a nesilně NP-úplných problémů, důkaz že TSP je silně NP úplné mu stačil slovně, co ale chtěl pořádněji byl pseudopoly alg pro Batoh. Nejdřív tedy zadefinovat ten problém (pak přišel Majerech s tím, že potřebuju rozhodovací problém aby vše bylo košér, takže úprava optimalizační verze), potom načrtnout tabulku a popsat co a jak se přepisuje na co. V tom jsme se trochu zahrabali, ale nakonec to nebyl takový problém.
[b]Přírodou inspirované počítání - Neruda - NEAT:[/b] Dostal jsem za úkol nejdříve popsat obecně neuroevoluci, jak se k tomuto tématu přistupuje a jaké problémy se řeší (např. obtížné křížení), a potom jsme se dostali k NEATu. Zkoušení bylo víceméně formou diskuze, ale dostali jsme se celkem do hloubky (např. jak by se dal modifikovat NEAT aby ještě trochu lépe řešil tagy hran). Zmínil jsem i HyperNEAT, z čeho měl zkoušející zřejmě radost.
[b]Datové struktury - Majerech - Haldy:[/b] Zkoušející si po "hození kostkou" mnou navrhnutým číslem přečetl dané zadání z papíru, znělo Haldy, závorka regulární a binomiální, a ty přesně chtěl. Zkoušení bylo nečekaně netechnické, stačily idei všech výpočtů hloubek. Např. u linearity konstrukce d-regulární haldy jsem řekl, jak by se počítala (suma hloubky a počtu vrcholů na dané úrovni stromu), pan Majerech se chvíli zamyslel, řekl že tomu věří pro d=2 a víc není potřeba. Chtěl jsem více mluvit o líných bin. haldách, ale nebylo potřeba.
[b]Strojové učení - Vomlelová - Pravděpodobnostní přístupy v ML:[/b] Musel jsem se doptat, co chtěla paní Vomlelová pod touto otázkou slyšet, na což mi bylo řečeno že chce MAP a maximum likelihood napsat vzorečky. A potom že si mám připravit něco z klasického supervised learningu, protože si myslí, že to nebude stačit. Zkoušení bylo vcelku důkladné a vydalo se směrem do hloubky pochopení látky (např. které se používá, zda MAP nebo maximum likelihood a podobné otázky), přes to jsme se ale nakonec probourali k supervised learningu, kde jsem mluvil o bias-variance trade-off, také parametrické a neparametrické metody (tady chtěla slyšet příklady z obou skupin metod). Připravil jsem si i odvození naive bayes, které zkoušející prošla bez větších komentářů - usuzuji, že to nebylo to, na co se chtěla při zkoušení zaměřit. I když zkoušející vypadala, že by nejradši ještě něco slyšela, nakonec to stačilo. (Celková známka byla 1, takže to stačilo nejspíš velmi dostatečně).
[b]Neuronové Sítě - Božovský - Backprop:[/b] Poslední mé zkoušení a jedno z posledních toho dne, zkoušející mi zadal tuhle otázku a při zkoušení jsme se bavili hlavně o principu, jak funguje backprop, proč děláme derivaci, rozdíly mezi lokální a globální chybou, proč může error růst při učení apod. Při přípravě jsem napsal error funkci, ta se sešla, a také nějaké odvození vah, ale to ho vůbec nezajímalo, šel spíše po principu a pochopení.
Celkově skvěle zorganizované zkoušení, nestalo se mi, že bych delší dobu čekal bez zadané otázky. Příjemné mi přišlo, že se opravdu nevyžadovaly technické detaily, ale šlo se po podstatě zkoušené látky.