情感計算- 維基百科,自由的百科全書
文章推薦指數: 80 %
文本情感分析(英語:sentiment analysis)和情感分析的區別在於,前者僅辨識詞語的情感極性,後者辨識人類的不同情緒。
目次. 1 研究範圍. 1.1 分類與維度.
情感計算
維基百科,自由的百科全書
跳至導覽
跳至搜尋
情感計算(英語:Affectivecomputing,亦作人工情感智慧,英語:artificialemotionalintelligence,或情感AI,英語:emotionAI)[1]是一個跨學科領域,涉及計算機科學、心理學和認知科學,旨在研發能夠識別、解釋、處理、模擬人類情感的系統。
[2]雖然該學科最早可追溯至早期的哲學研究,即人們對情緒[註1]的剖析,[3]但真正使其成為現代計算機科學分支的,則是1995年羅莎琳·皮卡德發表的關於情感計算的論文。
[4][5][6]人們研究情感計算很大程度上是為了能夠模擬共情——機器應該能夠解釋人類的情緒狀態,做出相適應的行為,對情緒給予恰當的回應。
文本情感分析(英語:sentimentanalysis)和情感分析的區別在於,前者僅辨識詞語的情感極性,後者辨識人類的不同情緒。
目次
1研究範圍
1.1分類與維度
1.1.1分類模型
1.1.2連續模型
1.2檢測與識別情感信息
1.3機器中的情感
2識別技術
2.1語音情感
2.1.1算法
2.1.2資料庫
2.1.3語音敘詞
2.2面部情感檢測
2.2.1面部表情資料庫
2.2.2情感分類
2.2.3面部行為編碼系統
2.2.4面部情感檢測的挑戰
2.3身體姿態
2.4生理檢測
2.4.1血容量脈衝
2.4.1.1概述
2.4.1.2方法
2.4.1.3弊端
2.4.2面部肌電圖
2.4.3皮膚電反應
2.5視覺審美
3潛在應用
3.1人機互動與產品設計
3.2電子遊戲
3.3安全與醫療
4認知主義與交互方法之爭
5注釋
6參見
7參考文獻
7.1引用
7.2來源
8外部連結
研究範圍[編輯]
分類與維度[編輯]
主條目:情緒
本文是情緒
愛慕(英語:Adoration)
愛意
憤怒
畏
苦惱(英語:Anguish)
煩惱
預期(英語:Anticipation)
焦慮
冷漠
喚醒(英語:Arousal)
敬畏
厭煩
信心(英語:Confidence)
蔑視(英語:Contempt)
滿足
勇氣
好奇
抑鬱
欲望
絕望
失望
厭惡
不信任(英語:Distrust)
痴迷(英語:Ecstasy(emotion))
尷尬
同理心
熱心
羨慕
欣快
恐懼
挫敗
感恩
喪慟
內疚
幸福
仇恨
希望
驚悚(英語:Horrorandterror)
敵視
羞辱
興趣
妒忌
快樂
孤獨
愛
情慾
激憤(英語:Outrage(emotion))
恐慌
激情
憐憫(英語:Pity)
愉快
驕傲
暴怒
後悔
出世
自責
苦悶(英語:Resentment)
悲傷
薩烏達德
幸災樂禍
自信
羞恥
震驚
害羞
憂傷(英語:Sorrow(emotion))
痛苦
驚訝
信任
驚異(英語:Wonder(emotion))
憂慮
閱論編
在認知科學和神經科學中,描述人類感知,並對人類情感進行分類的模型主要有兩種:連續模型(英語:continuousmodel)和分類模型(英語:categoricalmodel)。
若將可能的面部表情視作一個空間,那麼連續模型將每個情緒的面部表情定義為該空間的特徵向量(比如,該模型能夠將不同的情緒解釋為不同的表達強度)。
相反,分類模型由數個不同的分類器組成,每個分類器各自偵測不同的情感。
這個模型解釋了許多現象。
例如,如果在快樂與驚奇的表情圖片之間插入變形序列的話,在這些過渡圖像中,人們看到的要麼是快樂要麼是驚奇的神情,而不會認為是兩者兼有。
分類模型[編輯]
主條目:情緒分類
中國自古代就有「喜、怒、哀、懼、愛、惡、欲」的「七情」說法,這便是情緒分類模型的一個例子。
情緒的正確分類是心理學上歷來的爭議話題,現代心理學中對此大致有兩種觀點,一種認為情緒可以被割裂地劃分為幾類,另一種認為大部分情緒本質相同,僅僅是程度上存在差異。
[7]持分類模型態度的心理學家大多贊成將情感分為基礎情感和複合情感。
[8][9]
連續模型[編輯]
維度情緒論是基本情緒論之外的另一種情緒研究觀點,認為情緒固有性質存在度量,即維度(英語:dimension)。
維度具有兩個方向的極端,即極性(英語:polarity)。
關於情感的連續模型並沒有統一的標準評價其好壞,常見的連續情感模型有:[7]
Johnston一維模型
Wessman–Braduburn–Zevon二維模型
Wundt三維模型
Schloberg三維模型(倒立圓錐)
Plutchik三維模型(拋物錐)[10]
Mehrabian和Russell的PAD(愉悅度—喚醒度—優勢度,英語:pleasure–arousal–dominance)三維模型[11]
Blumenthal三維模型
Millenson三維模型
Taylor三維模型
Izard四維說
Krech四維說
Frijda六維說
檢測與識別情感信息[編輯]
情感信息的檢測會從被動式傳感器開始,它能夠捕捉到用戶的生理狀態、行為表現方面的原始數據,這些數據和人類用以覺察他人情感的線索很相似。
例如,攝像機可以捕捉面部表情、身體姿勢和手勢,麥克風則可以捕捉語音。
一些傳感器還可以通過測量生理數據(如皮膚的溫度和電勢)來探測情感線索。
[12]
識別情感信息需要從收集的數據中提取有意義的模式,通常要用到多模態的機器學習技術(如語音識別、自然語言處理、面部表情檢測)。
處理的結果要麼會被打上標籤,要麼會映射到「正負性—喚醒度(valence–arousal)」空間上的點。
機器中的情感[編輯]
設計一種計算設備,使其能夠展現出天然的情感能力(或是至少令人信服地模擬出人類的情感),是情感計算的另一研究範圍。
基於現有的技術能力,模擬對話機器人的情感是更具可行性的一種做法,以此來豐富並推動人與機器之間的互動。
[13]正如人類的情感和激素水平以及神經肽的波動息息相關,機器中的情感可能會與其自動學習過程的進展(或無進展)的抽象狀態相關聯。
以此觀之,不論是人還是機器,情緒狀態與其學習系統的學習曲線對時間的導數(即「擾動」)相關。
人工智慧的先驅之一——馬文·閔斯基,在《情感機器(英語:TheEmotionMachine)》一書中將情感和機器智能這一更為廣泛的概念聯繫了起來。
他說,情感「和我們稱之為『思考』的過程並沒有顯著差別」。
[14]
識別技術[編輯]
這些方法有一個很重要的共同缺陷:它們只能從圖像中檢出一種情緒,也就是在應用了各種方法中勝出的那個情緒;但在日常生活中,我們總能從單一圖像中感知到不止一種情感。
分類和連續模型都無法識別多種情感,因此對情感建模有一種新方法,即將一小部分類別的重疊視為一個新類別。
有關這一主題的詳細研究請參見綜述《人類對面部表情情感的感知模型:研究現狀與展望(Amodeloftheperceptionoffacialexpressionsofemotionbyhumans:researchoverviewandperspectives)》。
[15]
以下各節將介紹可用於情感識別的特徵。
語音情感[編輯]
自主神經系統的各種變化可以對人的語音產生間接影響。
情感技術可以利用這些信息來識別情感。
例如,在恐懼、憤怒或歡樂的狀態下產生的言語會變得快速、大聲,更確切地說,音域會更寬更高;而在疲勞、無聊或悲傷等情緒下,語音傾向於變得緩慢、低沉與不清楚。
[16]有些情感被證實更容易通過計算識別,如憤怒[17]或贊同[18]。
情感語音處理技術可以利用語音特徵的計算分析來識別用戶情緒狀態。
模式識別技術可被應用於聲學參數和韻律特徵,例如音調高低和語速等。
[17][19]
語音分析可以高效地分析情感狀態,在最近的研究中達到了70%至80%的正確率。
[20][21]這一正確率已經超過了普通人識別精度的均值(大約60%),但是比生理學或面部識別方法的正確率要低。
[22]然而,由於大多語音特徵與文化或語義無關,研究者認為這是一個未來的研究前景方向[23]。
算法[編輯]
主條目:機器學習
進行語音/文本的情感檢測需要建立可靠的資料庫、知識庫或者向量空間模型[24]。
為了適應各種應用,這些庫或是模型涉及面應當足夠廣泛。
另外,還需要選擇出一個又快又準確的情感分類器。
目前,常用的分類器有線性分類器、k-近鄰(k-NN)、高斯混合模型、支持向量機(SVM)、人工神經網絡(ANN)、決策樹算法和隱馬爾可夫模型(HMM)[25]。
各種研究表明,選擇合適的分類器可以大大提高系統的效率與精度。
以下簡要說明每個算法:
線性分類器:特徵以向量的形式表示,通過計算特徵的線性組合來分類。
k-近鄰算法:計算並選取特徵空間中的點,將其與k個最近的數據點相比較,分類決定於比較點中頻數最大的類。
高斯混合模型:是一種概率模型,用以發現並表示整體中局部的存在。
利用特徵的多個高斯概率密度函數混合來分類。
[26]
支持向量機:一種(大多是二分的)線性分類器,可將空間分成兩個(或更多)集合,來實現對點的分類。
人工神經網絡:利用多層的、仿生的神經網絡進行複雜的非線性分類。
決策樹學習:在一顆樹中,每個葉子結點都是一個分類點,分支(路徑)代表了一系列相鄰接的特徵,最終引向葉子節點實現分類。
隱馬爾可夫模型:是一種馬爾可夫統計模型,其中的狀態與狀態轉移並不直觀。
而依賴於這些狀態的輸出序列是可見的。
在情感識別領域,輸出代表了語音特徵向量序列,其使得狀態序列可在模型處理時被推導出來。
這些狀態包括情感表達中的各中間步驟,每個狀態在輸出向量上都有一個概率分布。
狀態序列是我們能夠預測正在試圖分類的情感狀態,這也是語音情感識別中最為常用的技術之一。
研究證實,有了足夠的聲音樣本之後,人的情感可以被主流分類器所正確分類。
文獻建議使用的模型由以下三種組合而成:k-NN、C4.5決策樹和徑向基函數核的SVM。
這一組合模型比每單個分類器性能都更好,也超過了使用混合核(英語:Hybridkernels)的「一對多」(英語:one-against-all,OAA)多類SVM,以及C5.0決策樹與神經網絡的組合[27]。
資料庫[編輯]
目前絕大多數的系統都是數據依賴的。
選擇一個恰當的資料庫來訓練分類器因而成為語音情感識別的首要問題。
目前擁有的大部分數據是從演員獲得的,都是一些典型的情緒表現。
這些所謂的表演資料庫大多基於保羅·艾克曼的基礎情緒理論,其假設了六種基礎情緒的存在,即憤怒、害怕、厭惡、驚奇、愉快和哀傷,而其他情緒僅僅是前六者的組合。
[28]
另一方面,對現實生活應用來說,自然數據更受青睞。
通過觀察並分析被試在自然情境下的行為,研究者可以建立自然情感的資料庫。
最終,自然資料庫會幫助系統識別情境下的情緒,也可以用來發現交互的目標和結果。
由於這類數據的自然性,可以真實自然地反映人機互動下的情感狀態,也就可以應用於現實生活中的系統實現。
儘管自然數據相比表演數據有更多優勢,然而自然數據難以獲得,情感密度也更低。
由於環境噪聲的存在、被試與麥克風的距離較遠,自然情境下獲得的數據信號質量也因此更差。
埃爾朗根-紐倫堡大學的AIBO情感資料庫(FAUAiboEmotionCorpusforCEICES,CEICES:CombiningEffortsforImprovingAutomaticClassificationofEmotionalUserStates)是建立自然情感資料庫的首次嘗試,其採集基於10—13歲兒童與索尼AIBO寵物機器人玩耍的真實情境。
[29][30]同樣,在情感研究領域,建立任何一個標準資料庫,都需要提供評估方法,以比較不同情感識別系統的差異。
語音敘詞[編輯]
情感識別的複雜度隨情感類別和語音敘詞的增加而增加,因此選取最為相關的特徵是必要的。
這樣做不僅可以確保模型識別情感的成功率,也可以提升計算性能,尤其對實時檢測系統更要如此。
可選項很多,有些研究曾提到超過200種不同的特徵。
[25]最為常見的語音特徵被歸納為以下列表[29][30]:
頻率特徵
音調形狀(英語:accentshape):由基礎頻率改變的頻度所影響
平均音高:講話者相對於正常說話的高低
音高輪廓(英語:counterslope):頻率隨時間變化的趨勢,可升高、降低或持平
尾音下降(英語:finallowering):一段話末尾頻率下降的多少
音域:一段話最高頻率和最低頻率的差值
時間相關特徵:
語速:單位時間內詞數或音節數
重音頻率(英語:stressfrequency):重讀發生的頻率
音質參數與能量敘詞:
呼吸音(英語:breathiness):說話中的呼吸噪聲
透明度(英語:brilliance):語音中高頻和低頻的占比
響度:語音波形的振幅
間斷不連續性(英語:pausediscontinuity):描述有聲和靜默之間的轉換
音調不連續性(英語:pitchdiscontinuity):描述基礎頻率的轉換
面部情感檢測[編輯]
面部表情的檢測和處理可以利用隱馬爾可夫模型和人工神經網絡等方法,也可在多模態的檢測中將各種方法組合或交融起來(多模態,例如面部表情和語音韻律結合[31]、面部表情和手勢結合[32]、面部表情和語音與文本的多模態數據與元數據分析),以更加穩健地估計對象的情感狀態。
面部表情資料庫[編輯]
建立情感資料庫極其困難和耗時,然而其又是識別人類情感的必要步驟。
大多公開的情感資料庫僅包含擺拍的面部表情,在這樣的資料庫中,參與者會被要求擺出不同基礎情感的對應表情;而在自然表情資料庫中,面部表情是自發的。
自然表情的發生需要選取恰當的刺激,這樣才能引起目標表情的豐富展示。
其次,這個過程需要受過訓練的工作者為數據做標註,以實現資料庫的高度可靠。
因為表情及其強度的感知本質上是主觀的,專家的標註對驗證而言是十分重要的。
研究者接觸到的資料庫可能包括以下三種:峰值表情(英語:peakexpressionimage)資料庫、中性到峰值表情的圖像序列資料庫和打上了情感標註的視頻片段。
被廣泛使用的開放表情資料庫有CK+和JAFFE。
情感分類[編輯]
主條目:情緒分類
在20世紀60年代末,保羅·艾克曼在巴布亞紐幾內亞的法雷人部落中進行了跨文化研究,之後提出,情感所對應的面部表情是普遍的,與文化無關。
因此他提議,面部表情是生物本能,可以安全、正確地被歸類。
此後,他於1972年正式提出六個基本的情感:[33]
憤怒
厭惡
恐懼
快樂
悲傷
驚奇
之後在1990年代,艾克曼在基本情感列表中加入了一系列的積極和消極的情緒。
並不是所有這類情感都對應於面部肌肉[34]新加入的情感如下:
趣味(英語:amusement)
蔑視(英語:contempt)
滿足(英語:contentment)
尷尬
興奮(英語:excitement)
內疚
成就感(英語:prideinachievement)
放鬆(英語:relief)
滿意(英語:satisfaction)
愉快(英語:sensorypleasure)
羞辱
面部行為編碼系統[編輯]
依肌肉動作定義表情的方法已經被應用於情感生理表達的形式分類。
在由保羅·艾克曼(PaulEkman)和華萊士·V·弗里森(WallaceV.Friesen)提出的面部表情編碼系統(英語:FacialActionCodingSystem,FACS)中,動作單位(英語:actionunit,AU)是核心概念。
[35]即,一塊多一組肌肉的收縮或舒張。
儘管這一概念看起來簡單,但已經足以建立和描述複雜的情感識別系統。
通過識別不同的面部特徵,研究人員能夠將其映射到相應的行為單元代碼。
據此,他們依這些單位提出了六種基本情緒的分類(「+」意思是「和」):
情感
行為單位
快樂
6+12
悲傷
1+4+15
驚訝
1+2+5B+26
恐懼
1+2+4+5+20+26
憤怒
4+5+7+23
厭惡
9+15+16
蔑視
R12A+R14A
面部情感檢測的挑戰[編輯]
正如計算領域的大多數問題一樣,面部表情處理的情感檢測也會遇到種種障礙需要克服,這樣才能開發出選用算法的潛能。
建模與追蹤的準確性長久以來就是個問題,特別是在情感計算領域的早期。
隨著硬體的發展、新方法的創造與時間,精度缺乏的問題逐漸淡出,而噪聲問題依舊。
降噪的方法也是存在的,如鄰域平均、線性高斯平滑、中值濾波等。
[36]比較新的方法還有菌群優化算法(英語:BacterialForagingOptimizationAlgorithm)。
[37][38][39]
一般認為面部表情識別的準確度等級(並非情感狀態識別的準確度等級)還沒有達到可以廣泛應用的層次。
曾經有過將這樣的技術應用於執法的實踐,例如辨識罪犯,但並不成功。
在沒有提升掃描人臉的軟硬體精度的前提下,準確度的進步已大大放緩。
其他問題包括:
大多研究中所使用的構成表達式其實並不自然,因此不是100%準確的。
缺乏旋轉運動的自由度。
情感檢測在正臉使用效果很好,但將頭部旋轉超過20度時,就會「出現問題」。
[40]
身體姿態[編輯]
身體姿態是檢測用戶的特定情緒狀態的有效手段,特別是與語音和臉部識別一起使用時。
依動作的不同,身體姿態分為反射性的(如被問題問住時下意識的抬肩膀)、複雜與有意義的(如手語交流)等。
在不藉助外物或環境的情況下,我們可以揮手、拍手或招手;藉助外物時,則可以指向、移動、觸碰和持握。
計算機應該做到識別這些信息,以更有效地應用於人機互動。
身體姿態的檢測已經有了很多方法提出。
[41]一些文獻將以下兩種識別途徑區別開來:基於三維模型的,和基於外觀的(英語:appearance-based)。
[42]前者將肢體關鍵部位的三維信息利用起來,以獲得若干重要參數,例如手掌位置和關節角度;後者則是直接利用圖像或視頻做解釋。
手勢是身體姿態情感研究的一大集中領域,上文所提到的三維模型和外觀方法都有在此使用。
生理檢測[編輯]
生理信號可用以檢測與分析情緒狀態,這些生理信號通常包括脈搏、心率、面部肌肉每分鐘收縮頻率等。
這一研究領域仍處於相對起步的階段,但發展迅猛,並已經有實用的產品出現。
常被用來分析情感的生理信號種類有血容量脈衝、皮膚電反應、面部肌電圖等。
血容量脈衝[編輯]
概述[編輯]
血容量脈衝(英語:bloodvolumepulse,BVP)通過光電容積描記法記錄,該方法可以檢測肢體末端的血流變化。
[43]記錄峰值代表著心搏周期中血流被泵到肢體末端。
當被試受到驚嚇或感到害怕時,他們往往會心跳加速,導致心率加快,從而在光電容積描記圖上可以清楚地看到波峰與波谷間的距離變小。
被試平靜下來後,血液流回末端,心率回歸正常。
方法[編輯]
在皮膚上照射紅外光,利用特製傳感器檢測光的反射量。
由於紅外光被血液中的血紅蛋白吸收,反射光與BVP相關。
弊端[編輯]
確保傳感器發射紅外光並確保檢測點始終在同一肢端上相當麻煩。
尤其是被試需要伸展身體,也會因為使用電腦變化姿勢,這更為檢測增加了難度。
影響血容量脈衝還有其他因素,例如被試覺得冷了或熱了,都會導致血液向肢體末端流動的狀態發生改變,而這與其情緒狀態無關。
皺眉肌和顴大肌是用於測量面部肌電的兩塊主要肌肉
面部肌電圖[編輯]
面部肌電圖(肌電圖,英語:electromyography,EMG)可以用來檢測面部肌肉活動,放大肌纖維收縮的微小電流。
[44]面部表情和情緒關聯性極大,以下兩組肌肉是情感檢測的主要研究對象:皺眉肌(用來檢測負向情感效果最佳)和顴大肌(微笑時揚起嘴角用到的肌肉,用來檢測正向情感效果最佳)。
如圖是皮膚電阻的GSR-時間圖像,記錄了在打電子遊戲的過程中,被試者的皮膚電變化。
圖中有幾個清晰的峰值,表明GSR是區分喚醒狀態和非喚醒狀態的好方法。
例如,遊戲開始時通常沒有太多令人興奮的地方,記錄到的皮膚電阻很高,即電導較低,喚醒較少。
這與後面突然出現的低谷形成了鮮明對比,發生低估時,被試在遊戲裡面的角色被殺死,由此變得十分緊張。
皮膚電反應[編輯]
皮膚電反應(英語:galvanicskinresponse,GSR)是皮膚電導的度量,與皮膚的濕潤程度相關。
由於汗腺分泌受神經系統控制,GSR同身體的喚醒度狀態有關。
被試喚醒度越高,皮膚電導和GSR數值越大。
[43]
皮膚電的測量使用兩個氯化銀電極,將其貼置於皮膚表面並施加一個小電壓。
電導由傳感器測定。
為了減少不適感、減輕刺激,電極可以貼在腳上,以達到釋放雙手、允許被試操作滑鼠鍵盤的目的。
視覺審美[編輯]
藝術和攝影世界中的美學指的是美的本質和欣賞原則,對美和其他審美特質的判斷是高度主觀的事情。
賓夕法尼亞州立大學的一組計算機科學家,將自動評價圖像的審美特質視作機器學習的一大挑戰,他們將一個同行評級的在線照片分享網站作為數據源,[45]從中抽取了特定的視覺特徵,可以作為圖像導致審美愉悅或不愉悅之間的差別。
潛在應用[編輯]
人機互動與產品設計[編輯]
正如人工智慧先驅馬文·閔斯基在其著作《心智社會》所指出的:「問題不在智能機器是否擁有情感,而是在機器有了智能之後怎樣可以沒有情感。
」[46]人與人之間的交流因科技的發展而越來越頻繁,但通訊過程本身是與機器打交道,而不是與人。
在機器愈發智能的21世紀初期,人也越發不滿於機器在情感上的冰冷。
與機器溝通過程更加友好的需求,使得情感計算在人機互動等領域存在著大量潛在應用。
[7]
情感計算可以提升人機互動中的用戶體驗,例如情感鏡子讓用戶看到自己如何表現情緒、情感監控機器人會在發送憤怒的電子郵件之前發出警告、音樂播放器可以根據情緒選擇曲目。
[47]
可處理情感信息的機器人系統在不確定或複雜的環境中展現出了高度的靈活性。
陪伴性設備,比如電子寵物可利用情感計算能力提升真實感並帶來更高的自主性。
社交機器人,以及越來越多的被用於醫療的機器人,因為能夠識別情感,可以更好地判斷用戶或患者的情緒狀態,以及時對自身的行為或程序做出調整。
在老齡化和缺乏年輕醫療工作者的國家,這些應用可以解決很多社會問題。
[48]
在電子學習應用中,情感計算可以用來發現學習者厭倦、感興趣、沮喪或高興的情況,以調整計算機中教師的教學風格與節奏。
[49][50]
羅馬尼亞研究人員NicuSebe博士在採訪中提出了一個想法,即分析使用某種產品時(原話以冰淇淋為例)一個人的面部表情。
[51]企業可以通過這類分析來推斷他們的產品是否會被相應的市場所接受。
人們可以利用實時視頻記錄被試者的面部表情,使用情緒狀態識別,來判斷電視廣告的有效性。
綜合考慮從大量被試者身上獲得的結果,就可以判斷該廣告(或電影)是否具有預期的效果,以及觀眾最感興趣的要素是什麼。
電子遊戲[編輯]
情感型電子遊戲可以通過生物反饋設備獲取玩家的情緒狀態。
有一些簡單的生物反饋形式,例如通過測量遊戲手柄按鈕按壓的壓力,可以獲知玩家的喚醒度水平,二者已被證明具有很強的相關性。
另一方面的應用是腦機接口。
情感遊戲已被用於醫學研究,以改善自閉症兒童的情感發展。
[52]
安全與醫療[編輯]
情感計算也可以應用於社會監督,改善社會治安、改善居民幸福感。
配有情感計算裝置的汽車可以監測駕駛者和乘客的情緒狀態,採取相應的安全措施。
舉例來說,可以在檢測到駕駛者生氣時做出善意的提醒,以規避事故的發生。
[53]
情感計算也被應用於開發自閉症患者與外界交流的技術。
[54]心理諮詢在確定患者情感狀態時也可從情感計算中受益。
認知主義與交互方法之爭[編輯]
在人機互動領域,羅莎琳·皮卡德所倡導的認知主義或「信息模型(英語:informationmodel)」情感概念受到了實用主義者的批評,後者篤信「後認知主義(英語:post-cognitivist)」或「交互方法(英語:interactional)」,其代表人有柯爾斯頓·伯納(KirstenBoehner)等,他們認為情感本質上是社會性的。
皮卡德專注於人機互動,她對情感計算的目標是「讓計算機認知與表達情感,甚至在某些場合下『擁有』情感」。
[55]相比之下,交互方法尋求「讓人們理解與體驗自身情感」 ,增進以計算機為中介的人際交往,而並不一定要求得情感向客觀數學模型的映射,來便於機器理解;情感計算應當讓人類暢通無阻地理解彼此的情感,而這些情感信息往往會是歧義的、主觀的或上下文敏感的。
[56]:284
皮卡德的批評者將她的情感概念描述為「客觀的、內部的、個人的和機械的」。
他們認為這將情緒降格成可測量的離散生理信號,而生理信號實際上只是認知的輸入。
情緒體驗的複雜性則被忽視了。
[56]:280[56]:278
交互方法認為,雖然情感具有生物物理性,但它是「以文化為基的、動態體驗的、某種程度上是行為和交互中構建的」。
[56]:276換言之,交互方法認為「情感是通過交互體驗到的社會與文化產物」。
[57][56][58]
注釋[編輯]
^心理學上,情緒(英語:emotion)和情感(英語:affect)是有區別的兩個概念:前者強調情境性和與人的生理性聯繫,是短暫的;後者強調社會性,更加持久。
在情感計算領域大多不刻意區分兩詞。
本文原則上對譯,但為行文流暢,並不嚴格做區分。
參見[編輯]
情感控制論(英語:Affectcontroltheory)
情感設計(英語:Affectivedesign)
情感觸覺論(英語:Affectivehaptics)
聊天機器人
賽博情感(英語:CyberEmotions(英語:CyberEmotions))
情感標記語言(英語:EmotionMarkupLanguage)(EmotionML)
Kismet
文本情感分析
可穿戴計算機
參考文獻[編輯]
引用[編輯]
^RanaelKaliouby.WeNeedComputerswithEmpathy.TechnologyReview120.Nov–Dec2017:8.
^Tao,Jianhua;TieniuTan.AffectiveComputing:AReview.AffectiveComputingandIntelligentInteraction.Springer:981–995.2005.doi:10.1007/11573548.
^James,William.WhatisEmotion.Mind.1884,9:188–205.doi:10.1093/mind/os-IX.34.188. CitedbyTaoandTan.
^"AffectiveComputing"(頁面存檔備份,存於網際網路檔案館)MITTechnicalReport#321(Abstract(頁面存檔備份,存於網際網路檔案館)),1995
^Kleine-Cosack,Christian.RecognitionandSimulationofEmotions(PDF).October2006[2008-05-13].(原始內容(PDF)存檔於2008-05-28).TheintroductionofemotiontocomputersciencewasdonebyPickard(sic)whocreatedthefieldofaffectivecomputing.
^Diamond,David.TheLoveMachine;Buildingcomputersthatcare.Wired.December2003[2008-05-13].(原始內容存檔於18May2008).RosalindPicard,agenialMITprofessor,isthefield'sgodmother;her1997book,AffectiveComputing,triggeredanexplosionofinterestintheemotionalsideofcomputersandtheirusers.
^7.07.17.2劉,光遠;溫,萬惠;陳,通;賴,祥偉.人体生理信号的情感计算方法.北京:科學出版社.2014.ISBN 9787030419507.
^孟,昭蘭.情绪心理学.北京:北京大學出版社.2005.ISBN 9787301086339.
^OrtonyA,TumerTJ.What'sbasicaboutbasicemotions.PsychologicalReview.1990,97(3):315-331.
^PlutchikR.Thenatureofemotions.AmericanScientist.2001,89:344-356.
^Mehrabian,Albert.BasicDimensionsforaGeneralPsychologicalTheory:ImplicationsforPersonality,Social,EnvironmentalandDevelopmentalStudies.Cambridge:Gunn&Hain.1980.ISBN 0899460046.
^Garay,Nestor;IdoiaCearreta;JuanMiguelLópez;InmaculadaFajardo.AssistiveTechnologyandAffectiveMediation(PDF).HumanTechnology.April2006,2(1):55–83[2008-05-12].(原始內容存檔(PDF)於2008-05-28).
^Heise,David.Enculturatingagentswithexpressiverolebehavior.SabinePayr;Trappl,Robert(編).AgentCulture:Human-AgentInteractioninaMutliculturalWorld.LawrenceErlbaumAssociates.2004:127–142.
^Restak,Richard.MindOverMatter.TheWashingtonPost.2006-12-17[2008-05-13].(原始內容存檔於2019-11-17).
^Aleix,andShichuanDu,Martinez.Amodeloftheperceptionoffacialexpressionsofemotionbyhumans:Researchoverviewandperspectives..TheJournalofMachineLearningResearch.2012,13(1):1589–1608.
^Breazeal,C.andAryananda,L.Recognitionofaffectivecommunicativeintentinrobot-directedspeech.AutonomousRobots121,2002.pp.83–104.
^17.017.1Dellaert,F.,Polizin,t.,andWaibel,A.,RecognizingEmotioninSpeech",InProc.OfICSLP1996,Philadelphia,PA,pp.1970-1973,1996
^Roy,D.;Pentland,A.Automaticspokenaffectclassificationandanalysis.ProceedingsoftheSecondInternationalConferenceonAutomaticFaceandGestureRecognition.1996-10-01:363–367[2018-04-03].doi:10.1109/AFGR.1996.557292.(原始內容存檔於2019-12-06).
^Lee,C.M.;Narayanan,S.;Pieraccini,R.,RecognitionofNegativeEmotionintheHumanSpeechSignals,WorkshoponAuto.SpeechRecognitionandUnderstanding,Dec2001
^Neiberg,D;Elenius,K;Laskowski,K.EmotionrecognitioninspontaneousspeechusingGMMs(PDF).ProceedingsofInterspeech.2006[2018-04-03].(原始內容存檔(PDF)於2020-07-16).
^Yacoub,Sherif;Simske,Steve;Lin,Xiaofan;Burns,John.RecognitionofEmotionsinInteractiveVoiceResponseSystems.ProceedingsofEurospeech.2003:1–4[2018-04-03].(原始內容存檔於2019-10-16).
^Hudlicka2003,第24頁
^Hudlicka2003,第25頁
^CharlesOsgood;WilliamMay;MurrayMiron.Cross-CulturalUniversalsofAffectiveMeaning.Univ.ofIllinoisPress.1975.ISBN 978-94-007-5069-2.
^25.025.1Scherer2010,第241頁harvnberror:notarget:CITEREFScherer2010(help)
^"GaussianMixtureModel"(頁面存檔備份,存於網際網路檔案館).Connexions–SharingKnowledgeandBuildingCommunities.Retrieved10March2011.
^S.E.Khoruzhnikov;等.Extendedspeechemotionrecognitionandprediction.ScientificandTechnicalJournalofInformationTechnologies,MechanicsandOptics.2014,14(6):137[2018-04-03].(原始內容存檔於2019-12-09).
^Ekman,P.&Friesen,W.V(1969).Therepertoireofnonverbalbehavior:Categories,origins,usage,andcoding.Semiotica,1,49–98.
^29.029.1Steidl,Stefan.FAUAiboEmotionCorpus.PatternRecognitionLab.2011-03-05[2018-04-03].(原始內容存檔於2019-10-10).
^30.030.1Scherer2010,第243頁harvnberror:notarget:CITEREFScherer2010(help)
^Caridakis,G.;Malatesta,L.;Kessous,L.;Amir,N.;Raouzaiou,A.;Karpouzis,K.Modelingnaturalisticaffectivestatesviafacialandvocalexpressionsrecognition.InternationalConferenceonMultimodalInterfaces(ICMI'06).Banff,Alberta,Canada.November2–4,2006[2018-04-03].(原始內容存檔於2020-12-03).
^Balomenos,T.;Raouzaiou,A.;Ioannou,S.;Drosopoulos,A.;Karpouzis,K.;Kollias,S.EmotionAnalysisinMan-MachineInteractionSystems.Bengio,Samy;Bourlard,Herve(編).MachineLearningforMultimodalInteraction.LectureNotesinComputerScience3361.Springer-Verlag.2004:318–328[2018-04-03].(原始內容存檔於2016-03-03).
^Ekman,Paul.Cole,J.,編.UniversalsandCulturalDifferencesinFacialExpressionofEmotion.NebraskaSymposiumonMotivation.Lincoln,Nebraska:UniversityofNebraskaPress:207–283.1972.
^Ekman,Paul.BasicEmotions.Dalgleish,T;Power,M(編).HandbookofCognitionandEmotion(PDF).Sussex,UK:JohnWiley&Sons.1999.(原始內容(PDF)存檔於2010-12-28). .
^"FacialActionCodingSystem(FACS)andtheFACSManual"網際網路檔案館的存檔,存檔日期2013-10-19..AHumanFace.Retrieved21March2011.
^Spatialdomainmethods.[2018-04-03].(原始內容存檔於2020-02-05).
^CleverAlgorithms."BacterialForagingOptimizationAlgorithm–SwarmAlgorithms–CleverAlgorithms"(頁面存檔備份,存於網際網路檔案館).CleverAlgorithms.Retrieved21March2011.
^"SoftComputing"(頁面存檔備份,存於網際網路檔案館).SoftComputing.Retrieved18March2011.
^Nagpal,Renu,PoojaNagpal,andSumeetKaur.HybridTechniqueforHumanFaceEmotionDetection(PDF).InternationalJournalofAdvancedComputerScienceandApplications.2010,1(6):91–101[2011-03-11].doi:10.14569/IJACSA.2010.010615].(原始內容存檔(PDF)於2019-12-07).
^Williams,Mark."BetterFace-RecognitionSoftware–TechnologyReview".TechnologyReview:TheAuthorityontheFutureofTechnology.Retrieved21March2011.
^J.K.Aggarwal,Q.Cai,HumanMotionAnalysis:AReview,ComputerVisionandImageUnderstanding,Vol.73,No.3,1999
^Pavlovic,VladimirI.;Sharma,Rajeev;Huang,ThomasS.VisualInterpretationofHandGesturesforHuman-ComputerInteraction:AReview(PDF).IEEETransactionsonPatternAnalysisandMachineIntelligence.1997[2018-04-03].(原始內容存檔(PDF)於2020-11-27).
^43.043.1Picard,Rosalind(1998).AffectiveComputing.MIT.
^LarsenJT,NorrisCJ,CacioppoJT,"Effectsofpositiveandnegativeaffectonelectromyographicactivityoverzygomaticusmajorandcorrugatorsupercilii",(September2003)
^RitendraDatta,DhirajJoshi,JiaLiandJamesZ.Wang,StudyingAestheticsinPhotographicImagesUsingaComputationalApproach,LectureNotesinComputerScience,vol.3953,ProceedingsoftheEuropeanConferenceonComputerVision,PartIII,pp.288-301,Graz,Austria,May2006.
^Minsky,Marvin.TheSocietyofMind.SimonandSchuster.1986.
^Janssen,JorisH.;vandenBroek,EgonL.TuneintoYourEmotions:ARobustPersonalizedAffectiveMusicPlayer.UserModelingandUser-AdaptedInteraction.July2012,22(3):255–279[2016-03-29].doi:10.1007/s11257-011-9107-7.(原始內容存檔於2020-02-11).
^Yonck,Richard.HeartoftheMachine:OurFutureinaWorldofArtificialEmotionalIntelligence.NewYork:ArcadePublishing.2017:150–153.ISBN 9781628727333.OCLC 956349457.
^AutoTutor.[2018-04-03].(原始內容存檔於2014-05-16).
^S.Asteriadis,P.Tzouveli,K.Karpouzis,S.Kollias.Estimationofbehavioraluserstatebasedoneyegazeandheadpose—applicationinane-learningenvironment.MultimediaToolsandApplications(Springer).2009,41:469–493[2018-04-03].(原始內容存檔於2019-06-24).
^MonaLisa:Smiling?ComputerScientistsDevelopSoftwareThatEvaluatesFacialExpressions.2006-08-01.(原始內容存檔於2007-10-19).
^Khandaker,M.Designingaffectivevideogamestosupportthesocial-emotionaldevelopmentofteenagerswithautismspectrumdisorders.Studiesinhealthtechnologyandinformatics.2009,144:37–9.PMID 19592726.
^FlorianEyben.MartinWöllmer,TonyPoitschke,BjörnSchuller,ChristophBlaschke,BertholdFarber,andNhuNguyen-Thien.EmotionontheRoad—Necessity,Acceptance,andFeasibilityofAffectiveComputingintheCar.AdvancesinHuman-ComputerInteraction.2010[2018-04-19].doi:10.1155/2010/263593.(原始內容存檔於2020-09-30).
^ProjectsinAffectiveComputing.[2018-04-03].(原始內容存檔於2011-06-10).
^Picard,Rosalind.AffectiveComputing.Cambridge,MA:MITPress.1997:1.
^56.056.156.256.356.4Boehner,Kirsten;DePaula,Rogerio;Dourish,Paul;Sengers,Phoebe.Howemotionismadeandmeasured.InternationalJournalofHuman-ComputerStudies.2007,65(4):275–291.doi:10.1016/j.ijhcs.2006.11.016.
^Boehner,Kirsten;DePaula,Rogerio;Dourish,Paul;Sengers,Phoebe.Affection:FromInformationtoInteraction.ProceedingsoftheAarhusDecennialConferenceonCriticalComputing.2005:59–68.
^Hook,Kristina;Staahl,Anna;Sundstrom,Petra;Laaksolahti,Jarmo.Interactionalempowerment(PDF).Proc.CHI.2008:647–656[2018-04-03].(原始內容存檔(PDF)於2016-02-02).
來源[編輯]
Hudlicka,Eva.Tofeelornottofeel:Theroleofaffectinhuman-computerinteraction.InternationalJournalofHuman-ComputerStudies.2003,59(1–2):1–32.doi:10.1016/s1071-5819(03)00047-8.
Scherer,KlausR;Banziger,T;Roesch,EtienneB.Ablueprintforaffectivecomputing:asourcebook.Oxford:OxfordUniversityPress.2010.
劉光遠;溫萬惠;陳通;賴祥偉.人体生理信号的情感计算方法.北京:科學出版社.2014.ISBN 9787030419507.
外部連結[編輯]
麻省理工學院數字媒體實驗室情感計算研究組(頁面存檔備份,存於網際網路檔案館)
南加州大學情感計算組(頁面存檔備份,存於網際網路檔案館)
孟菲斯大學情感計算組(頁面存檔備份,存於網際網路檔案館)
2011情感計算與智能交互國際會議 (2011InternationalConferenceonAffectiveComputingandIntelligentInteraction)
大腦、身體和字節:身心的用戶交互(Brain,BodyandBytes:PsychophysiologicalUserInteraction) CHI2010Workshop (2010年4月10至15日)
InternationalJournalofSyntheticEmotions(頁面存檔備份,存於網際網路檔案館)
IEEE情感計算學報(IEEETransactionsonAffectiveComputing,TAC)
RenuNagpal,PoojaNagpalandSumeetKaur,"HybridTechniqueforHumanFaceEmotionDetection"InternationalJournalofAdvancedComputerScienceandApplications(IJACSA),1(6),2010
openSMILE(頁面存檔備份,存於網際網路檔案館),音頻特徵提取工具
閱論編計算機科學的主要領域註:該模板大致遵循ACM電腦分類系統(2012)(英語:ACMComputingClassificationSystem)。
計算機硬體
印刷電路板
外部設備
集成電路
超大規模集成電路
綠色計算
電子設計自動化
系統架構組織
電腦系統架構
嵌入式系統
實時計算
網絡
網絡傳輸協議
路由
網絡拓撲
網絡服務
軟體組織
直譯器
中間件
虛擬機器
作業系統
軟體質量
軟體符號和工具
編程范型
程式語言
編譯器
領域特定語言
軟體框架
集成開發環境
軟體配置管理
函式庫
軟體開發
軟體開發過程
需求分析
軟體設計
軟體部署
軟體維護
開源模式
計算理論
自動機
可計算性理論
計算複雜性理論
量子計算
數值計算方法
計算機邏輯
形式語義學
算法
算法分析
算法設計
算法效率(英語:Algorithmicefficiency)
隨機化算法
計算幾何
計算數學
離散數學
信息與計算科學
統計學
數學軟體
數理邏輯
集合論
數論
圖論
類型論
範疇論
資訊理論
數值分析
數學分析
信息系統
資料庫管理系統
電腦數據
企業信息系統(英語:Enterpriseinformationsystem)
社會性軟體
地理信息系統
決策支持系統
過程控制
數據挖掘
數位圖書館
系統平台
數位行銷
全球資訊網
信息檢索
安全
密碼學
形式化方法
入侵檢測系統
網絡安全
信息安全
人機互動
計算機輔助功能
用戶界面
可穿戴計算機
普適計算
虛擬實境
聊天機器人
並發性
並發計算
並行計算
分布式計算
多執行緒
多元處理
人工智慧
自動推理
計算語言學
計算機視覺
進化計算
專家系統
自然語言處理
機器人學
機器學習
監督式學習
無監督學習
強化學習
交叉驗證
計算機圖形學
計算機動畫
可視化
渲染
修飾照片
圖形處理器
混合現實
虛擬實境
圖像處理
圖像壓縮
實體造型
應用計算
電子商務
企業級軟體
計算數學
計算物理學
計算化學
計算生物學
計算社會科學
醫學信息學
數字藝術
電子出版
網絡戰
電子遊戲
文字處理器
運籌學
教育技術學
生物信息學
認知科學
文件管理系統(英語:Documentmanagementsystem)
分類
主題
專題
維基共享
閱論編心理學
歷史
心理學家
基礎心理學(英語:Basicscience(psychology))
(尾綴有心理學字樣省略)
異常
生物
認知
比較
文化(英語:Culturalpsychology)
發展
差別(英語:Differentialpsychology)
演化
實驗
數學
神經
人格
正面
生理
社會
理論
哲學
科學
心理語言學
心理物理學
人本主義
情感科學(英語:Affectivescience)
情感神經科學(英語:Affectiveneuroscience)
行為主義
精神分析學
認知神經科學
應用心理學
應用行為分析
心理測驗
臨床心理學
社區心理學
消費行為
諮詢
教育
法醫
健康
工業與組織
傳媒心理學(英語:Mediapsychology)
軍事心理學(英語:Militarypsychology)
職業心理健康(英語:Occupationalhealthpsychology)
宗教心理學
政治心理學
心理統計學
校園心理學(英語:Schoolpsychology)
運動心理學
自殺學(英語:Suicidology)
系統心理學(英語:Systemspsychology)
交通心理學
研究方法
動物測試
檔案研究(英語:Archivalresearch)
行為遺傳學
行為表觀遺傳學(英語:Behavioralepigenetics)
案例研究
內容分析法
實驗心理學
人體試驗
面談
神經成像
觀察
定性研究(英語:Qualitativepsychologicalresearch)
定量研究(英語:Quantitativepsychologicalresearch)
自陳量表(英語:Self-reportinventory)
統計調查
智力
取向
阿德勒心理學(英語:Adlerianpsychology)(古典阿德勒心理學)
分析心理學
行為主義
認知行為療法
認知主義
描述心理學(英語:Descriptivepsychology)
生態系統理論
存在主義治療(英語:Existentialtherapy)
家庭療法(英語:Familytherapy)
女權主義療法(英語:Feministtherapy)
格式塔學派
人本主義
晤談治療法(英語:Narrativetherapy)
心理學哲學
精神動力取向心理治療(英語:Psychodynamicpsychotherapy)
理性情緒行為治療法(英語:Rationalemotivebehaviortherapy)
精神分析學
超個人
著名心理學家
阿爾弗雷德·阿德勒
高爾頓·威拉德·奧爾波特
阿爾波特·班杜拉
阿龍·貝克
約翰·鮑比
雷蒙德·卡特爾
肯尼斯和瑪米·克拉克(英語:KennethandMamieClark)
阿爾伯特·艾利斯
愛利克·埃里克森
漢斯·艾森克
利昂·費斯廷格
西格蒙德·弗洛伊德
哈里·哈洛
唐納德·赫布
克拉克·L·赫爾
威廉·詹姆士
卡爾·榮格
傑羅姆·凱根(英語:JeromeKagan)
庫爾特·勒溫
依瓦·洛瓦斯(英語:IvarLovaas)
亞伯拉罕·馬斯洛
大衛·麥克利蘭
喬治·A·米勒
尼爾·米勒(英語:NealE.Miller)
沃爾特·米歇爾
巴甫洛夫
讓·皮亞傑
卡爾·羅哲斯
斯坦利·沙克特(英語:StanleySchachter)
伯爾赫斯·弗雷德里克·斯金納
愛德華·桑代克
約翰·布羅德斯·華生
威廉·馮特
赫爾曼·艾賓浩斯
心理學列表
輔導
學科(英語:Listofpsychologydisciplines)
重要出版物(英語:Listofimportantpublicationsinpsychology)
組織(英語:Listofpsychologyorganizations)
概要
心理學家
心理療法
研究方法
心理學學派
年表(英語:Timelineofpsychology)
條目索引(英語:Indexofpsychologyarticles)
心理學主題
閱論編隨境遊戲(英語:Pervasivegame)概念
角色扮演
Persistence(英語:Persistentworld)
表演藝術
故事
transmedia(英語:Transmediastorytelling)
遊戲主持者
混合現實
擴增實境
普適計算
Contextawareness(英語:Contextawareness)
Crossmedia(英語:Crossmedia)
湧現
類型
普適計算
Mixedrealitygame(英語:Mixedrealitygame)
手機遊戲
另類實境遊戲
臨場動態角色扮演遊戲
情感遊戲
Smarttoy(英語:Smarttoy)
Location-basedgame(英語:Location-basedgame)
Exergame(英語:Exergame)
桌上遊戲
Seriousgame(英語:Seriousgame)
Treasurehunt(英語:Treasurehunt(game))
快閃族
開發者
BlastTheory(英語:BlastTheory)
EricZimmerman(英語:EricZimmerman)
JaneMcGonigal(英語:JaneMcGonigal)
Niantic
取自「https://zh.wikipedia.org/w/index.php?title=情感计算&oldid=68704491」
分類:情感計算隱藏分類:含有英語的條目含有哈佛參考文獻格式系列模板連結指向錯誤的頁面Webarchive模板wayback連結
導覽選單
個人工具
沒有登入討論貢獻建立帳號登入
命名空間
條目討論
臺灣正體
已展開
已摺疊
不转换简体繁體大陆简体香港繁體澳門繁體大马简体新加坡简体臺灣正體
查看
閱讀編輯檢視歷史
更多
已展開
已摺疊
搜尋
導航
首頁分類索引特色內容新聞動態近期變更隨機條目資助維基百科
說明
說明維基社群方針與指引互助客棧知識問答字詞轉換IRC即時聊天聯絡我們關於維基百科
工具
連結至此的頁面相關變更上傳檔案特殊頁面靜態連結頁面資訊引用此頁面維基數據項目
列印/匯出
下載為PDF可列印版
其他專案
維基共享資源
其他語言
CatalàEnglishEspañolEestiفارسیFrançaisItaliano한국어PolskiPortuguêsShqipไทย粵語
編輯連結
延伸文章資訊
- 1情緒維度分解 - 每日頭條
- 2細膩平滑還是充滿顆粒?你有感受過自己身體裏的「情緒粒度 ...
先不要急著鬱悶或生氣,在搬出「你一點都不了解我」前,我們要先知道,一切也許只因彼此的「情緒粒度」不在同一維度。 情感粒度控制情緒.
- 3情緒 - MBA智库百科
一些心理學家則用不同的維度來描述情緒。例如,施洛斯伯格(H.Schlosberg)從“愉快-不愉快”、“註意-拒絕”、“高激活水平-低激活水平”這三個維度來描述情緒,每一種具體 ...
- 4情绪的维度 - 360doc个人图书馆
但是,如果撇开具体情境和情绪所指向的对象,仅就情绪体验的性质来看,可以从不同的维度进行分析。冯特(Wundt,1896)最早提出情绪维度(emotional ...
- 5情感計算- 維基百科,自由的百科全書
文本情感分析(英語:sentiment analysis)和情感分析的區別在於,前者僅辨識詞語的情感極性,後者辨識人類的不同情緒。 目次. 1 研究範圍. 1.1 分類與維度.