rimochiko / nichijio-notes

记录一些有的没的
0 stars 0 forks source link

2019-08周 #6

Open jerrycheese opened 5 years ago

jerrycheese commented 5 years ago

Monday, Feb 25, 2019

00 Unit 56. Verb+-ing or to...(2)

A

Try to... 和 try -ing

Try to do = attempt todo, make an effort to do. 表示尽力做某事

Try 也表示"do something as an experiment or test",试着/试试做某事

如果在上述意思下,try后面的跟的动词要用-ing形式:

B

Need to ... 和 need ing

I need to do sth. = it is necessary for me to do it, 这对我来说是有必要的

Something needs doing = something needs to be done,某事做某事(某事需要被完成)

C

Help 和 can't help

help to do 和 help do 都是不定式,带不带to都行

can't/couldn't help doing sth. = I can't stop myself from doing it,我忍不住...

01

看了三小时论文,一半没看懂,明天继续。。。

jerrycheese commented 5 years ago

Tuesday, Feb 26, 2019 六级过了,哈哈哈,但是继续刷分

00 论文笔记

标题:Textbook Question Answering with Knowledge Graph Understanding and Unsupervised Open-set Text Comprehension 作者:Daesik Kim,Seonhoon Kim,Nojun Kwak

问题描述:给定lesson,lesson有很多个paragraph(可能含图片),问题(可能含图片),和候选答案,要求系统做单选题。 选项数量2-7不等,只有2个选项的题目称为T/F问题。 数据集:TQA

含有图片的问题称为diagram question

算法

① GCN部分大致算法 首先根据question、answer使用TF-IDF找到最相关的一个段落(可能含图) 将段落进行依赖解析,得到依赖树 将question和answer的共同词设为anchor nodes 在依赖树中,按照anchor nodes,去掉两层深度之外的节点,得到context graph,如果question中含有图,那就将该段落的图,使用UDPnet转成文本,再把这个文本按照上述方法构造得到另一个context graph(所以并没有对question中的图片做任何处理) 对于question和answer,使用GloVe+char-cnn编码;对于context graph,使用GCN进行编码,把文字和graph特征用attention机制结合,最后把特征做concat连接 RNNc用来理解question和answer,对于每一个候选answer都进行上述操作,假设有j个候选答案,最后就得到j个对应的特征向量 RNNs用来解题,把这j个特征向量送入一个全连接层,接着训练网络即可

② UTC部分大致算法 UTC = Unsupervised Text Comprehension ① 是先用TF-IDF选出一个paragraph,根据这个paragraph和question,在候选answer中选一个最有可能的,这样的话,模型遇到的paragraph就比较少。算法②是在①之前使用,也可以叫做预处理阶段,目的是防止out-of-domain问题,先让模型遇见更多的paragraph,核心思想是根据answer找到最对应的paragraph: 回想算法①,是选出候选answer中,与TF-IDF最高的那篇paragraph最切合的answer;UTC则反过来假设有j个候选answer,对于第k个answer,我们需要找到j个候选paragraph(如果lesson中paragraph小于j,则令j为段落数量)中,最切合该answer的paragraph。这j个段落根据TF-IDF排序得到,取前j个即可。同时我们相信TF-IDF值最高的那个就是ground truth。模型的其他部分都不变。

细节

question和answer的理解使用的RNNc是同一个(共享权值) question中的图片并未做任何处理 RNNc的输入是词向量组成的矩阵,每一个词是是GloVe、Char-CNN编码的连接结果(concat操作),并且添加一维occurrence flag,表示这个词在paragraph中是否出现了

01 Unit 58. Prefer 和 would rather

A

Prefer to do 和 prefer doing

通常来说两者都可以用:

三种结构的prefer:

B

Would prefer(I'd prefer)

用 "would prefer" 表示某人在某个特定情况下想要什么:

用 "would prefer to do" 而不是doing

C

Would rather(I'd rather...)

Would rather(do) = would prefer(to do). 在would rather后面使用不带to的不定式:

对比:

看一看 would rather 结构:

I'd rather do sth. than (do) sth. else. :

D

当我们想让某人去做某事的时候,可以用 I'd rather you did sth. ,对比: