算法關閉鍵上線,我們需要怎樣的“個性化服務”
如今,“算法”早已經成為大眾耳熟能詳的名詞。隨著網絡與生活的融合程度日益深化,無論是社交媒體的廣告推送,還是電商平臺上的購物推薦,背后都離不開算法的支持?;ヂ摼W企業(yè)通過抓取用戶數據,依照用戶畫像提供定制化信息、娛樂、消費服務,一方面為用戶提供了更加“個性化”的使用體驗,另一方面也為企業(yè)帶來了更多利潤,看起來似乎是“雙贏”的好事。然而近年來,公眾對企業(yè)抓取用戶隱私的的擔憂日漸加深,“大數據殺熟”“信息繭房”等次生問題,也引發(fā)輿論關注。
近日,抖音、微信、淘寶等多款App均已上線算法關閉鍵,允許用戶在后臺一鍵關閉“個性化推薦”的功能。關閉推薦后,App將不再根據用戶的瀏覽記錄生成推薦內容或廣告。這是《互聯網信息服務算法推薦管理規(guī)定》正式實施后,互聯網企業(yè)自查自糾的重大舉措之一。政府與社會監(jiān)管的介入,既能讓公眾看不見、摸不著的算法“黑箱”透明化,也讓算法更好地為大眾利益服務。
互聯網的高速發(fā)展,為大眾帶來了前所未有的海量信息,個人如何在不斷涌入的龐大信息中收集自己需要的部分,是互聯網時代的獨特難題。算法推薦能根據用戶喜好與需求精準提供服務,為用戶節(jié)約搜集、篩選信息的時間。從這個角度上看,算法并非洪水猛獸,有其存在的獨特價值。
然而,問題的癥結在于,互聯網企業(yè)的算法推薦機制基本都是“黑箱”。在應用過程中,用戶既不能選擇是否使用這項服務,也無從得知算法收集了什么個人信息,更不知道算法推薦的邏輯與規(guī)則是什么。許多人在不知情的情況下被收集大量隱私,甚至因此被“宰”。此外,算法推薦與互聯網服務牢牢綁定,使得在很多情況下,拒絕算法等于拒絕服務,這也剝奪了消費者的自主選擇權,讓他們只能被迫接受算法對隱私的窺視,坐視自己的合法權益受到損害。
算法一旦被過度濫用,不僅會侵害個人權益,也可能對公共空間造成負面影響。當社交媒體、新聞平臺完全按照個人喜好篩選并推薦信息時,“信息繭房”也會加速形成。用戶終日被包裹在同類信息中,與同立場的人抱團而拒斥其他信息,自然會成為一個個“孤島”,最后導致網絡不再是交流溝通的橋梁,而淪為不同群體互相攻訐的空間。
算法推薦造成的困境,讓我們不得不深入思考“個性化”的內涵。今天的“個性化”服務,本質上是一種被動的“個性化”。用戶只能被動地接受算法推薦,被動地讓算法收集自己的數據,被動地讓算法告訴自己什么是自己需要的、喜歡的服務與信息,最終被框在“舒適區(qū)”中難以逃脫。在這樣的“個性化”之下,算法推薦變成了一種“馴養(yǎng)”用戶的手段。而用戶真正需要的“個性化”,應該是主動的“個性化”。用戶應該能主動選擇是否使用算法,在了解算法推薦規(guī)則與邏輯的前提下,定制自己需要的服務,并且知道算法推薦篩選掉了什么內容,以此突破“信息繭房”,接觸不一樣的世界。歸根結底,算法推薦應該成為用戶的工具,而不是套在用戶頭上的枷鎖。
1987年9月20日,中國首次成功發(fā)送電子郵件,它的內容是“越過長城,走向世界”?;ヂ摼W科技的進步應該讓人更便利、更自主、更自由,讓企業(yè)在算法上的設置更加透明,賦予用戶更充分的選擇權和知情權,才能讓真正的“個性化”成為互聯網的未來。
羅廣彥 來源:中國青年報
版權聲明:凡注明“來源:中國西藏網”或“中國西藏網文”的所有作品,版權歸高原(北京)文化傳播有限公司。任何媒體轉載、摘編、引用,須注明來源中國西藏網和署著作者名,否則將追究相關法律責任。