Title: Atribuční metody pro Transformer modely
Other Titles: Attribution methods for explaining Transformers
Authors: Bartička, Vojtěch
Advisor: Pražák Ondřej, Ing.
Referee: Baloun Josef, Ing.
Issue Date: 2023
Publisher: Západočeská univerzita v Plzni
Document type: diplomová práce
URI: http://hdl.handle.net/11025/53734
Keywords: vysvětlitelná umělá inteligence;transformer;neuronové sítě;strojové učení;zpracování přirozeného jazyka;atribuční metody
Keywords in different language: explainable ai;transformer;neural networks;machine learning;natural language processing;attribution methods
Abstract: Tato práce zkoumá atrubuční metody aplikovatelné na Transformer modely pomocí datových sad SST a CTDC. Do datové sady CTDC přidáváme anotace založené na klíčových slovech a bodové vzájemné informaci, čímž umožňujeme evaluaci atribučních metod na české datové sadě. Používáme sedm modelů různých velikostí a architektur, každý s pěti instancemi, což nám umožňuje měřit vliv náhodné inicializace a velikosti modelu. Používáme také destilovaný vícejazyčný model na datové sadě CTDC a ukazujeme, že se rozhoduje racionálně i při použití s jazykem méně frekventovaným v předtrénování. Testujeme atribuční metody s různými referenčními vstupy a počty vzorků, což poskytuje cenné poznatky pro praktické aplikace. Ukazujeme, že přeučení negativně ovlivňuje atribuční metody využívající gradient, zatímco u metody KernelSHAP, která gradient nevyužívá, dochází k velmi malému zhoršení.
Abstract in different language: In this thesis, we evaluate multiple attribution methods applicable to Transformer models using the SST and CTDC datasets. We extend the CTDC dataset by adding ground-truth annotations based on keywords and pointwise mutual information, creating a ground-truth evaluation benchmark for the Czech language. We fine-tune seven models of various sizes and architectures with five instances each, allowing us to measure the effect of random initialization and model size. We also evaluate a distilled multilingual model on the CTDC dataset, showing that it makes rational decisions even when used with a language less represented in the pre-training process. We test attribution methods with different baseline references and sample counts, providing valuable insight for practical applications. We show that overfitting negatively affects gradient-based attribution methods, while KernelSHAP sees little performance degradation.
Rights: Plný text práce je přístupný bez omezení
Appears in Collections:Diplomové práce / Theses (KIV)

Files in This Item:
File Description SizeFormat 
prace.pdfPlný text práce2,05 MBAdobe PDFView/Open
A21N0038Pposudek-op.pdfPosudek oponenta práce107,04 kBAdobe PDFView/Open
A21N0038Phodnoceni-ved.pdfPosudek vedoucího práce232,37 kBAdobe PDFView/Open
A21N0038Pobhajoba.pdfPrůběh obhajoby práce522,62 kBAdobe PDFView/Open


Please use this identifier to cite or link to this item: http://hdl.handle.net/11025/53734

Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.