作文评分器在线 - CSDN

文章推薦指數: 80 %
投票人數:10人

如果chrome显示打分失败换别的浏览器比如edge,我就出现了这个问题. 人工外教批改. 然后吧,这个30分作文我用了同桌英语的vip批改,给了我3 ... 精华内容 下载资源 问答 我要提问 作文评分器在线 万次阅读 2019-10-2414:38:22 这篇文章主要是改打分系统的评测。

托福雅思高考等https://app.mtutor.engkoo.com/englishwriting/,gre见最下面。

另外人工智能的意思是,微软小英会根据你的文章内容帮你改作文,比如他能补全你缺少的相关名词。

目录 先展示下评分功能:它可以从四个方面给出接近托福的打分。

比如,题目是: 多种考试类型可以选择: 如果修改后再要求打分: 主要特点: 如果chrome显示打分失败换别的浏览器比如edge,我就出现了这个问题   人工外教批改 GRE GRE方法 总结       先展示下评分功能:它可以从四个方面给出接近托福的打分。

比如,题目是: Doyouagreeordisagreewiththefollowingstatement?Alluniversitystudentsshouldberequiredtotakehistorycoursesnomatterwhattheirfieldofstudyis.Usespecificreasonsandexamplestosupportyouranswer.   多种考试类型可以选择: 如果修改后再要求打分: 主要特点: 1.打分很快 2.能够识别拼写错误 3.能够识别语法错误,包括动名词等,以及一些比较高级的语法错误 4.能够自动修正 5.感觉对于高级词意理解可能不是那么合适,他不会告诉你哪个单词用的不恰当,所以建议配合谷歌翻译使用。

如果chrome显示打分失败换别的浏览器比如edge,我就出现了这个问题   人工外教批改 然后吧,这个30分作文我用了同桌英语的vip批改,给了我3分档(0-5),相当于托福的20分(0-30).   然后评语是: 3分对应的:   ♦可能因完全曲解写作任务而未能根据写作任务行文   ♦所表达的观点有限,可能大部分并不相关或重复   ♦不能有逻辑地组织观点   ♦所用衔接手段有时非常有限,且有时未能体现观点之间的逻辑性   ♦只使用非常有限的词汇及表达方式,对构词及/或拼写掌握也非常有限   ♦错误可能严重地影响信息的传达   ♦尝试造句,但语法及标点符号错误占多数,意思被扭曲 感觉是说少了结尾段,我个人不喜欢写结尾,觉得废话,开头我个人也不喜欢重复题目,觉得废话。

哈哈。

写作习惯看来不适合考试。

每个段的结尾也要重复一边结论,就感觉很不实际,凑字数一样。

模板意味很重。

看来考试有考试的套路。

另外就是论点,他认为不够充分,我个人也不喜欢举例我堂弟,我同学,我朋友等。

比较喜欢推逻辑。

不能偏听偏信,不过也要吸取别人的建议。

写一篇模板比较保险。

  30分/3分原文: Idisagreewiththeopinionthatallcollegestudentsshouldtakehistoryclassesforafewreasons. First,collegestudentsmajorsubjectisalreadystressful,especiallywithgoalsofastraightA.Theyhavetogotoclassesontimeandfinishalloftheirhomeworkassignments.Toimpresstheprofessorstheyalsoneedtopreviewalotofmaterialsrelevantornottotheclasses.Forexample,mymajoriscomputerscienceandwehavecodemissions,butsometimesthebugwilltakedaystobecorrected.Ifthereareirrelevantsubjectssuchashistorytogiveusadditionalburdens,ourcollegelifewillbereallytough. Inadditiontothestressfulstudy,enthusiasmisanotherreasonthatstudentsinotherfieldsshouldnotlearnhistory. Theydidnotchosehistoryastheirmajoratfirst,itmightbethattheyarenotinterestedinhistory,andsomemighthateit.Forcingstudentsinhistory,ashistoryneedspassionstoremember,mightleadtoabackfiresituation easily,hencethemoreschoolwantsthemlearnthelesstheywillremember.Consequently,theymightfailandhavetolearnitagain. Soisitharmfultoyourlifeknowingnothingabouthistory?Absolutelynot.Becausedifferentcountrieshavedifferenthistories.Itisnormaltoknownothingaboutthehistoryofacountry.Forexample,nowadayspeoplemoveandimmigrationalot,andforthemgeneralknowledgeofacountryisenough.Sowhybothertolearnhistory,ifyoudonotneedit.  Lastbutnotleast,wecanconsiderthislearningproblemfromteachers'andschool'sperspectivesaswell.Allthestudentstakinghistoryclasseswillcertainlyrequiresmoreteachers.Sotheschoolwouldratherhaveteachersinclasslongerthanbeforeorhiremorehistoryteachers.Thefirstoptionwillconsumetoomuchenergyfromteachers,whichisresponsiblefortheloweffectsinclassesandlimitedresearchfromprofessors.Andthesecondonewillspendteachingfundsonaprogramwhichnobodylikes,generatezerobenefitandundermineresearch.     同桌英语改后:放图片主要是因为能够看的很清楚加了主要的是一些总结句。

实际上内容是不给你改的,大概还是需要自己琢磨怎么丰富细节。

不过在通过人工智能修改后,大部分的语法错误,都没了。

  有一段外教以为我用的使转折,实际上使递进,就很尴尬,看来写的应该更加直白一些。

  GRE gre有官方的打分项目,不过两篇文章20大洋,美刀。

相当于一篇80人民币。

怕了怕了。

所以这里放一个在线人工智能打分的项目。

https://www.mbacrystalball.com/gre/gre-essay-grader  也是自然语言处理处理的。

可以先通过小英修改,然后再用评分系统进行打分。

我测试了一篇满分范文,得到了5.7的分数,看来这个系统其实是比较保守的。

所以我得了5.8是不是说明溢出了。

开个玩笑,初期写作花了1小时认真写,又花了两个小时各种改,才得到这个分数,还是要认真的练习。

比如下面这篇文章,我就是同过各种人工智能方式改的语法错误,最后再用人工智能评分,吃土, ThedatagenerateanargumentthatthelesshomeworkmakesMarleestudentsachievemoregradesinmathandsciencethanSanleewherestudentsgetmorehomework.Buttheconclusionisbasedonthreewrongpremises:First,thestudentsmaybetoolazytofinishtheworkswhichareaccordinglynotresponsibleforthebadscores.Second,theschoolcansetdifferenttestandgraduationstandardssothegradesarenotactuallycomparability.Third,thefrequencydoesnotequaltothequalityandquantitywithregardtohomeworkthusstudentsinMarleemayneedtospendmoretimeandenergyontheirdifficulttask.  Tobeginwith,theargumentbasedonaunwarrantedpremisethatthestudentswillreviewalltheknowledgefromhomeworksindustriously,whichcontainsfinishingallofthemtimely,correctingthemwiththeanswersassoonastheyfinishandreviewingthewrongonefrequently.Butifthestudentsjustignoremostoftheirhomework,itwillbedefault.Forexample,myfatherisacleverman,buthedidnotmakeittocollege.Also,healwaysremindsmetotreatstudyseriously.Turnsoutheusedhisintelligencetoescapeeveryworkandclassinhighschool.Astheconsequenceshowedbymyfather, ifthehomeworkarenotdone,lazinessmightbethechiefculpritoflowscores.  Additionally,theargumentsupposesthatschoolsintwodistrictsusethesametestandgraduationstandards,sothesamescoresmeanstudentsinMarleeareoutdothoseinMarlee.Butitisnormalthatgoodschoolssetdifficultquizzessothattheirstudentscancompetewitheachotheranddetecttheweaknessthroughtheincorrectones.Forthem,allstudentsgetfullmarkswhentestinotherschools.Forexample,TsinghuaisthetopuniversityinChina,andItooktheirentranceexambefore.IwasnotsurprisedthateverythinginitreachedthehighestdifficultythatIhaveeverseen.Onthecontrary,afterIhadfailedthetestinTsinghuaandtakenanotheroneinotherschools,Igothighmarkseasily.Sodothedifferenteffectsofvariousgraduationstandard.Inoneword,thescoredoesnotreflecttheabilityofstudentsunlesstheytakethesameexamandthoseinSanleemayhavehigherscoresiftheytakethetestsofMarlee.  Lastbutnotleast,theargumentseemstotake thefrequencyofhomeworkastheworkload.Afewdaysaweekistrulylessthaneveryday,butifthetaskforafewdaysiscomplicateandconsistofseveralsmallpartsthenthestudentsinMarleeactuallyfinishmoreworkloadsonstudytogetgoodscore.Forexample,collegestudentsusuallygethomeworkonceaweek,butitdoesn'tmeanthattheyhaveaeasywork,becausetheiressaytaskcontainslotsoftimeofsearchingmaterial,thinkinganddiscussion,andentityhomeworklikecomputercodewilltaketimetocodeanddebug. Asforthequantity,someteacherswillevensethomeworkforamonthsothestudentscanpreviewandfinishthembeforeclasses,thentheycanunderstandbetter.SothehomeworkwithlowfrequencybuthighdifficultyandquantitycastthepositiveaffectiononscoresinMarlee.  AsImentionedabove,thethreepremiseisuntenablethusthelogicthatthelesshomeworkinMarleegethighermarksthanthoseinSanleeisquestionable. GRE方法 我通过小英进行改错,通过谷歌翻译将文章英译中,然后更改奇怪的语义不通的地方。

最后使用下面的进行判分。

总结 就计算机科学角度来讲,如果官方已经实现了机器打分,那么非官方的机器打分有80%的可信赖程度,因为代码以及方法大半都是公开的,计算机比较讲究开源。

唯一可能导致打分不那么准确的原因使数据库的差异,但是这个差异根据一般论文来看,准确率会有最多5%的变动,一般都是2%。

  人工批改显然有更多的细节在内容上,因为人工智能并没有审题,也不会考虑内容的相识,直白,人性化。

也没有要求你的模板。

所以可以在初期使用人工智能以及写作模板达到一个较好的分数,如果想要高分满分,显然是需要购买一定的人工批改的。

这并非恰饭,我还没这本事,sad。

        更多相关内容 少数民族汉语考试的作文辅助评分系统研究 2021-02-2018:21:12 在该文中,我们利用统计自然语言处理和信息检索的技术提取作文写作水平和作文主题特征.在建模时,融入样本分数分布和一位评分员的评分的信息,创造性的提出三重分段回归模型.实验表明,利用我们的辅助评分系统协助评分,... 收起 小学语文考试作文评分标准。

.pdf 2021-10-1923:20:22 小学语文考试作文评分标准。

.pdf 收起 小学语文六年级作文评分标准.pdf 2021-10-2100:48:23 小学语文六年级作文评分标准.pdf 收起 2021-2022年收藏的精品资料高考作文的评分标准以及评分细则.docx 2021-09-1708:18:29 精品教育教学资料 收起 HSK自动作文评分的特征选取研究 2021-04-0607:33:45 作文特征选取是研究汉语作为第二语言的水平测试自动作文评分的关键问题之一,以中国汉语水平考试作文为研究对象,从字、词、语法、成段表达、庄雅度等多个层面上,选取107个作文特征,经相关度计算得到19个与作文分数... 收起 英语六级作文评分标准及写作技巧PPT学习教案.pptx 2021-10-1411:03:36 英语六级作文评分标准及写作技巧PPT学习教案.pptx 收起 英语专业四级写作评分标准.[精选].pptx 2021-10-1009:58:02 英语专业四级写作评分标准.[精选].pptx 收起 2021-2022年收藏的精品资料中考语文作文评分标准表.doc 2021-09-1803:19:43 精品教育教学资料 收起 自动作文评分算法概述 千次阅读 2021-12-2517:21:48 自动作文评分(AES)是语言评测领域的一项重要任务,能帮老师减轻作文批改的负担。

近些年来,有较多的学者致力于该领域的研究,并取得了较大的进展。

本文对自动作文评分领域相关算法进行总结,希望能对大家有用。

自动作文评分是语言评测领域的一项重要子任务,可以帮助老师减少作文批改的负担。

最近几年,有较多的学者致力于作文评分算法的研发,并取得了较大的进展。

自动作文评分系统一般由2个组件组成:作文表示组件和评分组件。

根据作文表示组件,作文评分算法一般可以分为:基于手工特征的作文评分、基于深度学习的作文评分、基于预训练模型的作文评分。

基于手工特征的作文评分 基于手工特征的作文评分方法,通过人工设计和提取相关特征来表征作文,并使用分类、回归或排序方式对作文进行评测。

早在1998年,Larkey等人[1]通过贝叶斯分类器对和K近邻的方法对作文进行分类,在分类结果基础上融合文本复杂度特征,利用回归方法对作文评分。

2002年,Rudner等人[2]通过贝叶斯分类器对作文进行分类实现作文评分。

2006年,Attali等人[3]通过对多个特征值加权求平均的方式实现作文评分。

2011年,Yannakoudakis等人[4]引入pair-wise的排序方法,借助svmrank对作文评分。

2013年,Chen等人[5]使用了list-wise的排序方法,通过使用LambdaMART算法,训练排序模型。

预测阶段,通过目标样本在训练样本中的排序位置,选择预测分数最接近的k篇文章。

使用移除最高分和最低分后的k-2篇文章的平均分,作为评分结果。

2015年,Phandi等人[6]使用领域自适应的技术来解决跨题目的作文评分问题。

基于深度学习的作文评分 基于深度学习的作文评分方法,不需要人工设计和提取特征,能够自动学习复杂的作文表征,往往具有更好的效果。

近些年来,越来越多的的学者开始研究该类方法。

2016年,Taghipour等人[7]探索了基于RNN和CNN的方法,效果显著超过了基于手工特征的方法。

首先通过查找层获得每个词汇的embedding向量,然后利用CNN或RNN对文章所有词汇的embedding向量进行处理,获得作文的表示,最后通过线性回归和sigmoid函数实现打分。

通过集成CNN和RNN两种模型,在ASAP数据上QWK达到0.761,显著超过基于手工特征的的作文评测算法。

图1:基于CNN-RNN的神经网络评分系统 同在2016年,Dong等人[8]提出了两层CNN神经网络对作文进行评测,第一层CNN用于提取句子级别的特征,第二层CNN用于提取文章级别的特征。

每层的多个CNN结果向量通过averagepooling和maxpooling来进行特征的汇总。

该方法在ASAP数据上QWK为0.734,显著超过基于手工特征的的作文评测算法。

图2:基于双层CNN的作文评分系统 除此之外,2006年Alikaniotis等人[9]扩展了基于上下文的语言模型,提出一种兼顾语言模型和打分信息的词汇embeddingSSWEs(score-specificwordembeddings),并将获得的embedding信息输入LSTM对文章进行编码。

为获得SSWEs,在训练获得词汇embedding时,不仅考虑了正确句子和被替换过某个词汇的句子的得分差异,同时考虑了句子本身的分数信息(用作文分数替代),如下图所示。

图3:左图为原始的语言学模型C&W,右图为兼顾语言模型和打分信息的SSWEs模型 2017年,Dong等人[10]比较了RNN和CNN的优势,并提出使用CNN-LSTM的双层神经网络对作文评测。

作者发现CNN有助于获取局部的表示,比较适合表征句子,LSTM有助于获取更全局的表示,比较适合表征文章。

为了获得句子和文章的表示,通过attention方法,自动获取每个向量的权重。

论文方法在ASAP数据上取得了QWK0.764,直到2019年,其效果未被新的方法超越。

如下图所示,左侧表示获得句子的表征,右图表示获得文章的表征。

图4:基于层次CNN-RNN-Attention的作文评测 2018年,Tay等人[11]提出了Skipflow机制,不仅可以增强LSTM的记忆能力,同时该机制提供了Coherence特征来辅助评分。

针对LSTM间隔为 δ \delta δ的两个输出,通过引入NeuralTensorLayer来建模其关系。

对于NeuralTensorLayer建模的多个关系输出,和LSTM多个状态的meanpooling结果做拼接,得到文档的向量表示,再通过一层denselayer实现对文章的评分。

该方法效果和Dong等人[10]方法相同,QWK0.764.达到基于非预训练语言模型的作文评分SOTA。

图5:基于层次Skipflow的作文评测 2018年,Farag等人[12]为解决语法正确,但语义不连贯的craft文章评分不准的问题,在训练评分模型的同时,对文章的局部一致性做联合学习。

图6展示了局部一致性模型:通过LSTM获得每个句子的表示;将连续的多个句子(作者用3)的表示拼接为一个向量,并通过卷积操作获得一个片段的表示;每个片段的表示通过线性变换及sigmoid操作,获得片段的一致性分数;多个片段的一致性分数求均值作为文章的一致性分数。

文章的作文评分模型采用了Taghipour等人[7]的方法,直接使用LSTM来对文章建模。

作者对局部一致性模型和作文评分模型采用联合学习,如图[7]所示。

训练过程通过利用评分模型误差和局部一致性误差,同时调整两个子模型的参数。

对于标注的数据,使用人工标注分数作为两个子模型的label。

对于craft的数据,使用0作为一致性模型的label,并用craft前人工标注分数作为评分模型的label。

在预测阶段,通过两个子模型预测文章分数和一致性分数,当两个分数差值大于一定阈值时,将文章标记为craft。

图6:尺寸为3的局部一致性模型 图7:局部一致性模型和作文评分模型联合学习 2018年,Wang等人[13]使用多种基于LSTM的方法对文章编码,并提出了一种强化学习的框架直接优化QWK指标。

在强化学习框架下,作者对一个pack内的文章进行打分,其中一篇文章看做target文章,将对target文章的打分看做一个具体的策略,此时根据该pack内所有文章打分结果计算QWK指标,作为强化学习的loss。

该loss和交叉熵损失、加权交叉熵损失按权重相加,得到强化学习的汇总loss。

该汇总loss根据梯度下降算法对模型权重更新。

模型架构如图8所示。

图8:基于强化学习的打分系统 2018年,Jin等人[14]提出了TDNN(two-stagedeepneuralnetwork)方法来解决题目无关的作文评分。

如图9所示,该方法训练模型包括两个阶段:第一阶段,通过主题无关的作文,训练一个浅层的评分模型如RankSVM,浅层模型使用题目无关的特征。

在第二阶段,输入题目相关的数据(无标注)到浅层模型,通过选择极高分和极低分的数组作为伪样本。

这些选择出的伪样本用于训练层次神经网络评分模型,该神经网络综合考虑了语义、词性和句法信息,如图10所示。

图9:TDNN打分系统 图10:融合语义、词性和句法信息的层次神经网络 2018年,Dasgupta等人[15]使用了两个CNN-RNN-Attention的网络模块,其中一个输入是词汇embedding的特征,另一模块输入是句子级别的手工特征。

该方法的优势是有效结合了深度学习和传统特征的优势,并自动建模两者之间的关系。

图11:同时考虑embedding特征和手工特征的神经网络 Uto等人[16]在2020年提出将深度学习特征和文章级别手工特征进行融合。

针对LSTM,CNN-LSTM或BERT神经网络结果,可以在打分之前和文档级别特征直接做拼接,然后输入打分器。

基于CNN-LSTM的打分结构如图12所示。

相对于Dasgupta等人[15]方法,该方法不经可使用文档级别的特征提升熊爱国,且只需更少的参数。

该方法获得非常好的效果,ASAP数据上QWK0.801。

图12:同时考虑embedding特征和文档级别手工特征的神经网络 2020年Song等人[21]提出一种多阶段的预训练方法,可以借助题目无关的作文,提升题目相关主题上的评分效果。

作者采用Dong等人[10]提出的CNN-RNN-Attention评分模型,通过三个阶段训练模型:第一阶段利用爬取的8.5万篇题目无关作文,通过对文章质量进行分类预训练模型;第二阶段利用题目无关但是打分范围一致的作文来finetune模型;第三阶段利用题目相关的作文finetune模型。

图13:多阶段预训练评分系统 2021年Ridley等人[22]等人提出了一种跨题目对作文总分和维度分进行评测的算法。

整个评分系统包括共享层和私有层,如图14所示。

共享层通过卷积和attention获取每个句子的表征,私有层通过LSTM和attention获得文章的第一表征,每个维度子网络模块将获得的文章第一表征和手工特征拼接到一起作为第二表征,然后和其他维度的第二表征通过attention获得最终的文章表征。

最终的文章表征输入sigmoid层得到具体的维度分数。

图14:跨题目分维度评分系统 基于预训练模型的作文评测 Rodriguez等人[17]实验了BERT,XLNet方法,使用“[CLS]”对应的最后一层输出来表征文章,并输入到分类器实现打分。

实验结果表明,直接使用BERT和XLNet来进行作文评测,和基于LSTM方法的效果相近。

Mayfield等人[18]也实验了基于BERT的方法,和Rodriguez等人[17]类似,他们也获得了和传统神经网络方法近似的效果。

表明直接finetuneBERT模型,效果并不好。

2020年,Cao等人[19]提出了一种领域自适应的打分框架,如图15所示。

为了充分利用其他题目的数据,该方法提出了两个自监督学习的任务和一种领域对抗训练的方法。

第一个自监督学习任务是句子的排序的识别。

该任务将作文分成4个片段,并对4个片段分别根据4种排序得到4份构造的数据,训练的目标是对具体的排序方式做分类;第二个自监督学习任务是噪声数据识别,该任务随机选择文章10%的token做插入、替换和删除,生成新的数据。

训练的目标是对构造数据和原始数据做二分类(识别数据是否为噪声数据)。

为了更好地考虑不同题目之间的差异信息,作者使用了一种领域对抗训练的方法。

在完成一定的训练步骤后,针对所有样本的编码器输出,计算每个题目的中心(该题目下所有样本的编码向量对应的各维度求平均)。

对于每个样本训练时,首先计算所有其他题目的中心,以及该样本到其他题目中心的偏移方向,将该样本原始表征在该偏移方向上加上一定值之后作为新的表征,输入到打分或其他自监督任务进行训练。

该方法获得较好的效果,ASAP数据上QWK0.791。

图15:领域自适应的打分系统 同在2020年,Yang等人[20]提出融合回归和排序loss来finetuneBERT模型。

该方法使用BERT对应[CLS]位置的输出作为文章的表征,回归Loss使用MSE、排序Loss使用BatchwiseListNet。

为计算BatchwiseListNet损失函数,根据batch内的所有样本预测分数,计算对应的top1概率列表。

对于预测值的top1概率列表,第 j j j个元素的计算方法如下,其中 ϕ ( s j ′ ) \phi(s'_j) ϕ(sj′​)表示对第 j j j个样本的预测分数。

对于真实分数对应的top1概率列表计算方法相同。

获得两个top1概率列表后,通过交叉熵得到BatchwiseListNet损失值,如下所示: 该方法对应的模型架构如图16所示。

通过综合考虑regression和rank信息,获得了很好的结果,ASAP数据上QWK0.794。

图16:融合回归和排序对BERT评分模型进行finetune [23]针对预训练语言模型在AES领域效果不好的问题进行分析,认为大多预训练语言模型在预训练阶段处理的都是句子级文本,而评分系统需要在文档级别finetune,存在不一致;另外作文数量较少,无法通过finetune获得有效的作文多层次信息表征。

为解决上述问题,作者利用两个BERT模型来显示地建模作文的多尺度信息,如下图所示。

其中左半图利用一个BERT模型来提取文档和词汇级特征,并通过一层Denselayer预测作文对应这两个尺度的分数;右半图通过另一个BERT模型来提取多尺度片段特征,也通过一层Denselayer预测各片段尺度的分数。

通过将作文对应所有尺度的预测分数相加,获得最终的预测分数。

为了考虑分数的分布信息和排序信息,作者在回归损失函数的基础上,引入相似度损失函数SIM和排序损失函数MR。

该方法在ASAP数据上QWK0.791,其提出的多尺度特征表征方法在只使用回归损失函数,且无辅助任务优化的情况下效果超过了基于深度学习的方法如LSTM。

图17:基于BERT的作文多尺度特征联合学习 参考文献 【1】LeahS.Larkey.1998.Automaticessaygradingusingtextcategorizationtechniques.InSIGIR’98Proceedingsofthe21stannualinternationalACMSIGIRconferenceonResearchanddevelopmentininformationretrieva,pages90–95.【2】LawrenceM.RudnerandTahungLiang.2002.Au-tomatedessayscoringusingbayes’theorem.TheJournalofTechnology,Learning,andAssessment,1(2).【3】YigalAttaliandJillBurstein.2006.Automatedessayscoringwithe-rater⃝Rv.2.TheJournalofTechnology,Learning,andAssessment,4(3).【4】HelenYannakoudakis,TedBriscoe,andBenMedlock.2011.Anewdatasetandmethodforautomaticallygradingesoltexts.InHLT’11Proceedingsofthe49thAnnualMeetingoftheAssociationforComputationalLinguistics:HumanLanguageTechnologies,pages180–189.【5】HongboChenandBenHe.2013.Automatedessayscoringbymaximizinghuman-machineagreement.InProceedingsofthe2013ConferenceonEmpiricalMethodsinNaturalLanguageProcessing,pages1741–1752.【6】PeterPhandi,KianMingA.Chai,andHweeTouNg.2015.Flexibledomainadaptationforautomatedes-sayscoringusingcorrelatedlinearregression.InProceedingsofthe2015ConferenceonEmpiricalMethodsinNaturalLanguageProcessing,pages431–439.【7】KavehTaghipourandHweeTouNg.2016.Aneuralapproachtoautomatedessayscoring.InProceed-ingsofthe2016ConferenceonEmpiricalMethodsinNaturalLanguageProcessing,pages1882–1891.【8】FeiDongandYueZhang.2016.Automaticfeaturesforessayscoring–anempiricalstudy.InProceed-ingsofthe2016ConferenceonEmpiricalMethodsinNaturalLanguageProcessing,pages1072–1077.【9】DimitriosAlikaniotis,HelenYannakoudakis,andMarekRei.2016.Automatictextscoringusingneuralnetworks.InProceedingsofthe54thAnnualMeetingoftheAssociationforComputationalLinguistics,pages715–725.【10】FeiDong,YueZhang,andJieYang.2017.Attention-basedrecurrentconvolutionalneuralnetworkforautomaticessayscoring.InProceedingsofthe21stConferenceonComputationalNaturalLanguageLearning(CoNLL2017),pages153–162.【11】YiTay,MinhC.Phan,LuuAnhTuan,andSiuCheungHui.2018.Skipflow:incorporatingneuralcoherencefeaturesforend-to-endautomatictextscoring.InProceedingsoftheThirty-SecondAAAIConferenceonArtificialIntelligence,pages5948–5955.【12】YoumnaFarag,HelenYannakoudakis,andTedBriscoe.2018.Neuralautomatedessayscoringandcoherencemodelingforadversariallycraftedinput.InProceedingsofthe2018ConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics:HumanLanguageTechnolog,pages263–271.【13】YuchengWang,ZhongyuWei,YaqianZhou,andXuanjingHuang.2018.Automaticessayscoringincorporatingratingschemaviareinforcementlearning.InProceedingsofthe2018ConferenceonEmpiricalMethodsinNaturalLanguageProcessing,pages791–797.【14】CancanJin,BenHe,KaiHui,andLeSun.2018.Tdnn:Atwo-stagedeepneuralnetworkforpromptindependentautomatedessayscoring.InProceedingsofthe56thAnnualMeetingoftheAssociationforComputationalLinguistics,pages1088–1097.【15】TirthankarDasgupta,AbirNaskar,RupsaSaha,andLipikaDey.2018.Augmentingtextualqualitativefeaturesindeepconvolutionrecurrentneuralnetworkforautomaticessayscoring.InProceedingsofthe5thWorkshoponNaturalLanguageProcessingTechniquesforEducationalApplications,pages93–102.【16】MasakiUto,YikuanXie,andMaomiUeno.2020.Neuralautomatedessayscoringincorporatinghand-craftedfeatures.InProceedingsofthe28thInter-nationalConferenceonComputationalLinguistics,pages6077–6088.【17】PedroUriaRodriguez,AmirJafari,andChristopherM.Ormerod.2019.Languagemodelsandautomatedessayscoring.InarXiv:ComputationandLan-guage.【18】ElijahMayfieldandAlanWBlack.2020.Shouldyoufine-tunebertforautomatedessayscoring?InPro-ceedingsofthe15thWorkshoponInnovativeUseofNLPforBuildingEducationalApplications.【19】YueCao,HanqiJin,XiaojunWan,andZhiweiYu.2020.Domainadaptiveneuralautomatedessayscoring.InSIGIR’20:Proceedingsofthe43rdInternationalACMSIGIRConferenceonResearchandDevelopmentinInformation.【20】RuosongYang,JiannongCao,ZhiyuanWen,YouzhengWu,andXiaodongHe.2020.Enhancingautomatedessayscoringperformanceviane-tuningpre-trainedlanguagemodelswithcombinationofregressionandranking.InFindingsoftheAssociationforComputationalLinguistics:EMNLP2020.【21】WeiSong,KaiZhang,RuijiFu,LizhenLiu,TingLiu,andMiaomiaoCheng.2020.Multi-stagepretrainingforautomatedchineseessayscoring.InProceedingsofthe2020ConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP),pages6723–6733.【22】RobertRidley,LiangHe,XinyuDai,ShujianHuang,andJiajunChen.2021.Automatedcross-promptscoringofessaytraits.【23】YongjieWang,ChuanWang,RuobingLi,andHuiLin.2022.OntheUseofBERTforAutomatedEssayScoring:JointLearningofMulti-ScaleEssayRepresentation.2022AnnualConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics(NAACL). 收起 展开全文 机器学习 人工智能 自然语言处理 七年级作文评分标准.PNG 2022-01-0312:39:02 七年级的同学可以看一下,作文评分标准(内部资料) 收起 托福独立写作和综合写作评分标准.docx 2021-11-2710:06:06 托福独立写作和综合写作评分标准.docx 收起 托福写作评分标准.doc 2021-10-0708:51:12 托福写作评分标准.doc 收起 自动作文评分研究综述_陈潇潇1 2022-08-0416:39:21 0.引言计算机技术的发展为实现语言测试现代化提供了技术方面的支持,而机辅语言测试走向智能化也是发展的必然趋势(吴会芹,2006),自动作文评分(Autom 收起 NLPForDiscourseStructures:基于章节章结构自动作文评分系统 2021-03-1121:15:36 本项目为自动作文评分中章节结构的评分,第一版本方案(章节结构评分系统V1.0.0)主要包括章节结构特征提取模块,章节结构评分模型训练模块以及模型测试模块三部分,随后根据模型效果再完善优化改进。

二,功能接口... 收起 基于神经网络的英语作文自动评分模型研究与实现.pdf 2019-07-2109:49:37 本研究利用神经网络深度学习的算法研究不同级别文本的语言特征,进而构建自动评分的评分量表及机制 收起 高考英语作文评分标准.doc 2021-10-1113:15:24 高考英语作文评分标准.doc 收起 小学语文作文评分标准.doc 2021-10-0818:18:20 小学语文作文评分标准.doc 收起 小学语文作文评分标准.pdf 2021-10-0512:39:39 小学语文作文评分标准.pdf 收起 基于词向量聚类及随机森林的英语作文自动评分研究.pdf 2021-08-1823:52:33 基于词向量聚类及随机森林的英语作文自动评分研究.pdf 收起 高考英语作文评分标准解析.doc 2021-10-1113:15:24 高考英语作文评分标准解析.doc 收起 高考作文评分标准及等级.doc 2021-10-0818:19:49 高考作文评分标准及等级.doc 收起 山东高考语文作文评分标准.doc 2021-10-0708:44:42 山东高考语文作文评分标准.doc 收起 2019中考英语作文评分标准.doc 2021-09-1915:13:40 2019中考英语作文评分标准.doc 收起 托福独立写作评分标准终稿.pdf 2022-03-0610:26:17 托福独立写作评分标准终稿.pdf 收起 上海市语文高考作文评分细则.doc 2021-10-1020:28:13 上海市语文高考作文评分细则.doc 收起 作文等级评分标准.doc 2021-09-2821:22:20 作文等级评分标准.doc 收起 空空如也 空空如也 1 2 3 4 5 ... 20 收藏数 5,574 精华内容 2,229 热门标签 相关推荐 NLPForDiscourseStructures:基于章节章结构自动作文评分系统 本项目为自动作文评分中章节结构的评分,第一版本方案(章节结构评分系统V1.0.0)主要包括章节结构特征提取模块,章节结构评分模型 nlp_kesci:sentencesimilarityandessayautoscoring作文自动评分句子相似 英文语句相似度作文自动打分句子相似度博客:CountVectorizer向量TF-IDF向量word2vec向量ICLR2017论文方案:Asimplebu 信息系统项目管理师论文技巧及评分标准 国家软考系列高级:信息系统项目管理师考试下午论文写作的技巧总结,并对论文的评分标准作了说明 OutwriteforChrome-crx插件 我们功能强大的写作助手不仅仅是语法检查,它还可以帮助您将您的想法变成强有力的句子。

无论您在哪里进行在线书写(包括Gmail,Outlook,G Rating-Applicant:应用程序计算大学申请者的评分 我可以使用装饰吗?与API后端集成节点RubyonRails在开发中代理API请求在开发中使用HTTPS在服务器上生成动态<meta>标记预渲染 关键字:作文评分器在线



請為這篇文章評分?