BERT视觉
作者:| |
加州大学伯克利分校,信息与数据科学硕士课程 2021年Spring,W210- Capstone项目-Alberto | 在塞( 的指导下,我们继续进行W266-自然语言处理的研究
描述
我们提出了一种用于问题解答(QA)的参数有效的方法,该方法大大减少了对扩展BERT微调的需求。 我们的方法使用来自每个BERT转换器层的隐藏状态激活的信息,该信息在典型的BERT推理期间将被丢弃。 我们的最佳模型以极少的培训时间和GPU / TPU费用实现了最大的BERT性能。 通过将我们的模型与BERT的预测相结合,可以进一步提高性能。 此外,我们发现使用较少的训练数据就可以为QA跨度注释获得接近最佳的性能。 我们的实验表明,这种方法不仅适用于跨度注释,而且适用于分类,这表明它可以扩展到更广泛的任务。
该存储库包含代码,模型和文档,用于评估利用参数有效模型(例如计算机