发信人: Daishijun (这里有个大坑)

(Thu Jul  9 23:54:28 2020), 站内

今天是入职第四天了。有点难顶了。
上午看了一小时BERT,然后开始看Kafka的介绍和相关博客。
中午的时候Leader过来,看似不经意地提出一个关于BERT的问题:如果只有一个词的话,能不能用预训练好的BERT得到其embedding,能不能投入到下游任务中?如果只有一个词,那么使用预训练的BERT得到的embedding和使用Word2vec得到的embedding,哪个效果更好?(没错我还在论坛里发了个问题帖)
第一次回答错了。Leader让我再去调研一下这个问题。去年入职的同事让我小心一点,leader这是再给我挖坑,下次回答注意不要犯错。于是又思考了1个小时,再加上和同学、师弟的讨论,下午将问题和回答又整理了一下发给了leader。
下午继续看Kafka,晚上的时候把遗留的一个DSSM的开源代码大致看了下。
晚上11:20,leader发来了疑似让我上手的问题。
题外话:
今天和去年入职的同事聊了很多,我的新人保护期应该快结束了,应该快要被leader重点输出了,思想压力有点大,而且要学习的东西很多,这几天每天都在看,但还是赶不上Leader安排的计划。
和另一个入职三年的同事也聊了下,leader把我拉到了他那个项目微信群里,所以问了下目前做的情况。前辈劝我注意休息,他看我每天很早到又很晚走,似乎感觉到我心里压力有点大。
两位前辈都说让我有问题就问他们就行(之前我看他们每个人都很忙,害怕耽误他们时间就没有找他们说),有想说的不用憋着。
总的来说,今天白天思想压力很大,一方面是因为leader安排的学习任务我跟不上,另一方面是因为觉得和同事间没交流,是个小透明。晚上和同事聊了天,觉得心里舒服了一些。
题外话2:
没想到小公司也能给我配一个Macbook pro。虽然是2018年款的,但毕竟是我用的第一个Mac,还是值得纪念一下的。

越来越多的同学们正式入职或者开始实习了。祝大家工作顺利,加油


bert有pos embedding 在单个词上泛化性肯定比w2v差,不过话说回来就你描述的情况你的leader可能在pua你,要注意