文件名称:bertviz:在Transformer模型中可视化注意力的工具(BERT,GPT-2,Albert,XLNet,RoBERTa,CTRL等)
文件大小:43.5MB
文件格式:ZIP
更新时间:2024-02-24 00:26:42
visualization nlp machine-learning natural-language-processing neural-network
贝特维兹 BertViz是用于可视化Transformer模型中注意力的工具,支持库中的所有模型(BERT,GPT-2,XLNet,RoBERTa,XLM,CTRL等)。 它扩展了的以及的库。 资源资源 :joystick_selector: :writing_hand_selector: :open_book: 总览 正面图 头部视图可视化给定转换器层中一个或多个注意头产生的注意模式。 它基于出色的。 尝试此 其中已预加载了头部视图。 头部视图支持Transformers库中的所有模型,包括: BERT: GPT-2: XLNet: RoBERTa: XLM: 阿尔伯特: DistilBERT: (和别的) 模型视图 模型视图提供了对模型所有层和头部的关注的鸟瞰图。 试用此 其中已预加载了模型视图。 模型视图支持Transformers库中的所有模型,包括: BERT: GPT2: XLNet: RoBERTa: XLM: 阿尔伯特: DistilBERT: (和别的) 神经元视图 神经元视图将查询和键向量中的单个神经元可视化,并
【文件预览】:
bertviz-master
----.gitignore(427B)
----README.md(9KB)
----head_view_roberta.ipynb(814KB)
----model_view_roberta.ipynb(1.57MB)
----LICENSE(11KB)
----head_view_albert.ipynb(1.39MB)
----model_view_bert.ipynb(2.75MB)
----head_view_xlm.ipynb(223KB)
----neuron_view_roberta.ipynb(18.95MB)
----bertviz()
--------head_view.py(4KB)
--------tests()
--------util.py(654B)
--------model_view.py(3KB)
--------head_view.js(13KB)
--------neuron_view.py(11KB)
--------model_view.js(15KB)
--------transformers_neuron_view()
--------__init__.py(67B)
--------neuron_view.js(34KB)
----model_view_distilbert.ipynb(394KB)
----requirements.txt(296B)
----model_view_albert.ipynb(2.76MB)
----neuron_view_gpt2.ipynb(4.68MB)
----head_view_bert.ipynb(1.38MB)
----model_view_xlnet.ipynb(1.2MB)
----images()
--------head_thumbnail_right.gif(190KB)
--------head-view-large.png(158KB)
--------head_thumbnail_left.png(76KB)
--------model-view-dark.gif(9.41MB)
--------head-view-large.gif(511KB)
--------neuron_thumbnail.png(345KB)
--------neuron-view-dark.gif(4.84MB)
--------model_thumbnail.jpg(277KB)
--------head-view.gif(2.9MB)
----head_view_gpt2.ipynb(218KB)
----head_view_bert_tensorflow.ipynb(1.38MB)
----neuron_view_bert.ipynb(17.78MB)
----head_view_xlnet.ipynb(624KB)
----model_view_xlm.ipynb(430KB)
----head_view_distilbert.ipynb(118KB)
----model_view_gpt2.ipynb(416KB)