應(yīng)用

技術(shù)

物聯(lián)網(wǎng)世界 >> 物聯(lián)網(wǎng)新聞 >> 物聯(lián)網(wǎng)熱點(diǎn)新聞
企業(yè)注冊個人注冊登錄

大數(shù)據(jù)經(jīng)濟(jì)堪比人間《黑鏡》,一文打盡九大科技趨勢

2019-01-16 14:24 獵云網(wǎng)

導(dǎo)讀:隨著技術(shù)密集型經(jīng)濟(jì)體進(jìn)一步與“黑鏡”融合,最大、最令人毛骨悚然的創(chuàng)新可能是建立在大數(shù)據(jù)經(jīng)濟(jì)之上。 不僅僅是谷歌、Facebook、亞馬遜和硅谷的其他公司在獲取我們的數(shù)字信息,越來越多的公司正在以一種可能對你產(chǎn)生負(fù)面影響的方式,從你的每一個行為中獲取信息以達(dá)到其盈利目的。

隨著技術(shù)密集型經(jīng)濟(jì)體進(jìn)一步與“黑鏡”融合,最大、最令人毛骨悚然的創(chuàng)新可能是建立在大數(shù)據(jù)經(jīng)濟(jì)之上。 不僅僅是谷歌、Facebook、亞馬遜和硅谷的其他公司在獲取我們的數(shù)字信息,越來越多的公司正在以一種可能對你產(chǎn)生負(fù)面影響的方式,從你的每一個行為中獲取信息以達(dá)到其盈利目的。

就連福特公司一向樂觀的未來主義者Sheryl Connelly也對未來感到擔(dān)憂。處在日益加劇的經(jīng)濟(jì)不平等問題、日益擴(kuò)大的數(shù)字鴻溝和持續(xù)的隱私侵犯之間,她說:“這非常像1984年經(jīng)濟(jì)危機(jī)那時候,你不得不時刻提心吊膽?!?/p>

在許多國家,幾乎沒有法律框架來約束個人數(shù)據(jù)的收集和可能的濫用。去年,就在Facebook劍橋分析公司丑聞爆發(fā)的幾個月后,歐洲開始通過其新的通用數(shù)據(jù)隱私管制政策,來應(yīng)對圍繞數(shù)據(jù)收集的新規(guī)則。此后不久,加州通過了美國影響最深遠(yuǎn)的數(shù)據(jù)隱私法,并將于2020年生效。

在過去的一年里,科技行業(yè)的丑聞、失誤以及各種讓人想起創(chuàng)新發(fā)明令人毛骨悚然的一面的東西,都給個人隱私帶來了損害。近期新法律的出現(xiàn),對于個人隱私來說是個重要的勝利。以下是今年值得關(guān)注的一些最新進(jìn)展。

人臉識別

機(jī)場、商店、賭場等場所都在使用人臉識別,有些甚至是實(shí)時的,能在龐大而模糊的數(shù)據(jù)庫的幫助下搜索可疑的人。澳大利亞將推出一項(xiàng)全國性的面部掃描系統(tǒng),而在中國,面部識別技術(shù)正用于抓捕在啤酒節(jié)上喝啤酒的罪犯。去年12月,在亞馬遜因出售面部識別服務(wù)面臨批評之際,最引人注目的監(jiān)管呼吁之一,來自一個人工智能的競爭對手。微軟總裁布拉德·史密斯寫道:“我們認(rèn)為,一場逐底的商業(yè)競爭并不會給世界帶來最好的服務(wù),而科技公司將被迫在社會責(zé)任和市場成功之間做出選擇?!?/p>

情感識別

所謂的“情感識別軟件”并不僅僅用于評估求職者,警方也正越來越多地求助于基于人工智能的系統(tǒng),根據(jù)一個人的面部姿態(tài)和聲音來判斷他是否暗含危險(xiǎn)。一些專家將這個系統(tǒng)稱為現(xiàn)代版的相面術(shù)。

虛擬人物

當(dāng)Lil Michaela的賬號第一次出現(xiàn)在Instagram上時,她就征服了全世界。現(xiàn)在我們有了像谷歌的Duplex這樣的電視新聞主播和助理,它可以代表用戶給餐館和發(fā)型師打電話。Duplex的人性化是如此的不可思議,以至于許多人都指控谷歌造假。當(dāng)Fast Company嘗試這項(xiàng)服務(wù)時,它似乎像廣告宣傳的那樣有效。當(dāng)虛擬人被要求從事客戶服務(wù)和類似的工作時,他們也冒著惡化環(huán)境的風(fēng)險(xiǎn)。在這樣的環(huán)境中,活人無法區(qū)分虛構(gòu)和現(xiàn)實(shí)。

數(shù)字造假

就像虛擬人一樣,圍繞深度偽造的技術(shù)——旨在誘使觀眾認(rèn)為某人說了或做了他沒有做過的事情的視頻——最近已經(jīng)讓位于新技術(shù),比如深度視頻人像和接近照片真實(shí)物理位置的模擬。在與美國國防部高級研究計(jì)劃局(DARPA)等機(jī)構(gòu)支持的先進(jìn)數(shù)字造假行為進(jìn)行斗爭的同時,一些專家也在對一種不那么復(fù)雜的攻擊發(fā)出警告:虛假數(shù)據(jù)和欺詐性文件的傳播。

人類機(jī)器化

在一個充滿算法建議的世界里,谷歌正在自動完成我們的句子。當(dāng)然,這很方便,但讓我們更接近谷歌認(rèn)為我們應(yīng)該寫的東西,也可能讓我們?nèi)祟愖兊孟駲C(jī)器人。技術(shù)倫理學(xué)家David Polgar表示:“很多預(yù)測分析的核心問題都是關(guān)于我們是否有自由意志。我應(yīng)該選擇下一步,還是谷歌來選擇?如果它能預(yù)測我的下一步,那么這對我來說意味著什么呢?”

同時,Ride-hail司機(jī)和其他在算法指導(dǎo)下的工作人員也面對一個同樣重要的問題。Uberland的作者,Alex Rosenblat寫道:鑒于Uber將員工視為“消費(fèi)者”的“算法技術(shù)”和促進(jìn)他們成為創(chuàng)業(yè)的企業(yè)家的情況,一個棘手的、未知的、令人不安的問題必須得到回答:如果你使用一個應(yīng)用程序來上班,社會應(yīng)該認(rèn)為你是一個消費(fèi)者、一個企業(yè)家、還是一個工人?

傳感器監(jiān)控

多年來,公司一直能夠追蹤員工的位置和談話內(nèi)容,但這種追蹤越來越具有入侵性,越來越接近員工的身體。去年,亞馬遜獲得了一項(xiàng)腕帶專利,這種腕帶可以在員工可能要做錯事的時候,利用觸覺反饋來糾正他們。還有一些公司在辦公室周圍部署傳感器,以跟蹤移動和空間利用情況。

智能家居

2018年,智能家居設(shè)備蓬勃發(fā)展,為家庭帶來了更多的攝像頭和面部識別技術(shù)。Facebook推出了門戶網(wǎng)站,谷歌擴(kuò)大了其Home Hub網(wǎng)絡(luò),亞馬遜推出了智能門鈴服務(wù)鈴聲,以此作為其大舉進(jìn)軍我們家庭的一部分。(上周,該公司表示,搭載Alexa的設(shè)備已售出逾1億部。)我們已經(jīng)開始擔(dān)心Alexa捕捉人們對話的能力,但現(xiàn)在該公司正朝著將面部識別技術(shù)整合到其設(shè)備的方向發(fā)展,美國公民自由聯(lián)盟稱這預(yù)示著一個“危險(xiǎn)的未來”。當(dāng)然,不僅僅是蘋果、谷歌和亞馬遜在深入我們的家庭:我們的智能電視也在注視著我們。

基因技術(shù)

使用CRISPR等工具進(jìn)行基因組編輯,有望對人類健康帶來不可思議的改善,但它們也帶來了令人難以置信的醫(yī)學(xué)和倫理問題,可能會給它們的潛在好處蒙上陰影。去年10月,我國一名研究人員宣布,他利用CRISPR培育出了新的人類嬰兒,這些嬰兒未來的后代將對艾滋病病毒具有抗性。這導(dǎo)致了全球研究團(tuán)體的廣泛譴責(zé)——在許多國家,種系基因編輯和胚胎植入人類母親的子宮是非法的——但這項(xiàng)研究提醒人們,轉(zhuǎn)基因工具正在擴(kuò)散,并可能在這一過程中給生態(tài)系統(tǒng)帶來重大風(fēng)險(xiǎn)。

基因檢測

隨著DNA檢測市場的爆炸式增長——預(yù)計(jì)到2020年將增加到3.1億美元——人們對基因數(shù)據(jù)被濫用的擔(dān)憂也與日俱增。許多消費(fèi)者沒有意識到,他們從DNA檢測公司獲得的基因數(shù)據(jù)可能會與制藥公司等第三方共享,這一細(xì)節(jié)隱藏在晦澀的隱私政策中。這些公司堅(jiān)稱,只有在用戶同意的情況下,它們才會分享匿名數(shù)據(jù),但監(jiān)管機(jī)構(gòu)可能不會相信:可能是出于對隱私方面的考慮,美國聯(lián)邦貿(mào)易委員會正在調(diào)查一些DNA檢測公司。與此同時,DNA網(wǎng)站也是黑客們垂涎的目標(biāo),這前景更加堪憂:你的基因信息可能會像Equifax事件一樣被泄露。

公眾和隱私倡導(dǎo)者呼吁企業(yè)如何收集數(shù)據(jù)進(jìn)行更多的控制,和更多的法律保護(hù),另外一線希望來自科技公司自己:通過抗議和信件,工人越來越要求雇主對他們的行為和出售的產(chǎn)品的風(fēng)險(xiǎn)負(fù)責(zé)。如果沒有嚴(yán)格的規(guī)則,可能那些開發(fā)了令人毛骨悚然的技術(shù)的人,才最有能力來防止它變得危險(xiǎn)。