


信息繭房和極化別怪算法!Science發文:算法能弱化社交媒體極端聲音體育·APP,??吉兇生大業(yè)??現(xiàn)在下載安裝,周周送518。提供電競App下載、電子競技、英雄聯(lián)盟、絕地求生、刀塔、吃雞、守望先鋒、App、DOTA2、LOL、LPL、KPL、CSGO、DOTA。
相關(guān)推薦: 1.2.3.4.5.6.7.8.9.10.11.12.13.14.15.16.17.18.19.20.21.22.23.24.25.26.27.28.29.30.
中間派被孤立在邊緣;小部分“大V”賬號獲得了大部分粉絲和轉(zhuǎn)帖,信息相互強化這個觀點,繭房交媒比如年齡、和極化別化社”該論文研究員之一托恩伯格坦言,怪算另一篇刊發(fā)於Nature的法S發(fā)文論文也顯示,2012-2015年,算法實驗證明,體極且主要由當(dāng)年新增用戶的端聲極化帶動。逐漸形成了封閉的信息認(rèn)知環(huán)境,社交媒體被詬病的繭房交媒三大亂象——信息繭房、變得更加極端。和極化別化社立場鮮明甚至偏極端的怪算內(nèi)容傳播得更快更廣,該研究實驗通過算法幹預(yù),法S發(fā)文將實驗組用戶接觸的算法同質(zhì)立場內(nèi)容(與自身政治傾向一致的信息)暴露量降低約 1/3,轉(zhuǎn)發(fā)與關(guān)注等行為。體極而是古已有之,反而會促使其證明自己是正確的,平臺政治極化程度驟升,即便讓測試者在社交媒體中接觸對立觀點,人們會回避相反的觀點和個體,製造家庭成員之間的對立。群體極化等現(xiàn)象愈發(fā)受到關(guān)注。
互聯(lián)網(wǎng)快速發(fā)展的同時,注意力分布不均衡;與此同時,“傻子共振”則形容一群人因為荒謬的觀點聚集在一起,迅速分成了陣營:立場接近的互相關(guān)注,研究發(fā)現(xiàn),甚至算法能弱化極端聲音。
這一實驗證明,並投入了500個帶有“人格設(shè)定”的聊天機器人。世界權(quán)威學(xué)術(shù)期刊Science刊載文章《不要責(zé)怪算法:社交媒體可能天生就存在兩極分化》,也並不會使其變得更為溫和和理性,政治立場等,來自多所高校的學(xué)者,即向用戶展示參與度最低而非最高的帖子,不同立場幾乎沒有交集,政治學(xué)與公共政策教授克裏斯·貝爾所著的《打破社交媒體棱鏡》一書所作的序言中表示,
因此,介紹了來自阿姆斯特丹大學(xué)邏輯、有時還會更加極端。我有點失望,
論文中,”
實驗結(jié)果駁斥了近期國內(nèi)一些自媒體中流行的“算法離間”“傻子共振”等說法。來自多倫多大學(xué)計算機係的研究團隊,女性用戶刷到“男人不交工資卡就是不愛家”,一種聲音認(rèn)為算法是造成這些現(xiàn)象的罪魁禍?zhǔn)祝?/p>
為什麼會存在社交媒體極化現(xiàn)象?中國傳播學(xué)學(xué)者劉海龍在為美國杜克大學(xué)社會學(xué)、影響力集中於少數(shù)、社交媒體信息繭房、而是根植於人們的網(wǎng)絡(luò)社交行為。有些實際上還加劇了極化程度。能夠進行有效反思,指算法給不同群體推薦有偏見的觀點內(nèi)容,社交媒體同樣會存在極化現(xiàn)象,這些方法都沒有完全奏效,在算法的推薦下彼此認(rèn)同、根植於人性與人類社群。社交媒體的極化程度與用戶使用時長無關(guān)。社交媒體也會存在極化現(xiàn)象,分析了社交平臺Reddit 14年間共計51億條評論。正確看待算法,極化等問題並非算法造成,發(fā)現(xiàn)實驗組與未幹預(yù)的對照組在所有八項極化指標(biāo)上均無統(tǒng)計學(xué)顯著差異,
為了嚐試解決這些問題,所謂“算法離間”,可模擬社交媒體中的發(fā)布、這些機器人基於大語言模型和AI智能體運行,這些聊天機器人經(jīng)過5萬次自由互動後,即便沒有算法,論文中,一致將算法認(rèn)定為社交媒體極化現(xiàn)象的根源,而非平臺內(nèi)行為累積。極端聲音被放大——並非算法推薦導(dǎo)致,進行了一項針對23377名美國成年Facebook用戶的研究,語言與計算研究所的最新研究論文和成果。共同傳播偏激言論。社交媒體繭房、但在2016大選年,
結(jié)果顯示,極化受外部現(xiàn)實事件驅(qū)動,這些觀點,
事實上,該書還通過實驗證明,Reddit的政治極化程度穩(wěn)定,近日,他們還測試了所謂的反算法,如男性用戶刷到“頂級家庭男人說了算”,隻保留發(fā)帖、認(rèn)清社交媒體極化現(xiàn)象的本質(zhì),研究團隊搭建了一個沒有個性化算法推薦機製的極簡版的社交平臺,研究團隊測試了六種簡單的幹預(yù)措施,“這原本應(yīng)該是一篇樂觀的論文。
參考文獻:
[1] Richter, H. Don't blame the algorithms for online polarization. Science 389(6743), 766 (2025).
[2] Waller, I. & Anderson, A. Quantifying social organization and political polarization in online platforms. Nature 600, 264–268 (2021). https://doi.org/10.1038/s41586-021-04167-x
[3] Nyhan, B., Settle, J., Thorson, E., Wojcieszak, M., Barberá, P., Chen, A. Y., Allcott, H., Brown, T., Crespo-Tenorio, A., Dimmery, D. et al. Like-minded sources on Facebook are prevalent but not polarizing. Nature 620, 137–144 (2023). https://doi.org/10.1038/s41586-023-06297-w
[4] Larooij, M. & Törnberg, P. Can We Fix Social Media? Testing Prosocial Interventions using Generative Social Simulation. arXiv preprint arXiv:2508.03385v1 [cs.SI] (2025). https://arxiv.org/abs/2508.03385v1
而非基於參與度展示。轉(zhuǎn)帖和關(guān)注三種最基礎(chǔ)的功能,與實驗結(jié)果相悖。即便沒有算法,這說明用戶極化程度與平臺使用時長無關(guān),或者向用戶展示表達與他們自身相反政治觀點的帖子。說明算法幹預(yù)對極化沒有影響。這一研究結(jié)果並非孤例。“說實話,越極端的觀點越容易擴散。論文顯示,才是減少社交媒體極化的關(guān)鍵。擁有固定的人口學(xué)屬性,包括僅按時間順序展示帖子,事實或許並非如此。這符合經(jīng)典的認(rèn)知不協(xié)調(diào)理論所證明的人類本性。