Veronica Barassi

科技公司對您的孩子了解多少

人类学家Veronica Barassi说,您和您的家人每天使用的数字平台-从在线游戏到教育应用程序和医疗门户-可能正在收集和出售孩子的數據。 巴拉西(Barassi)分享了她大开眼界的研究成果,并敦促父母们对数字条款和条件进行三番审视,而不是一味地接受它们,并要求采取保护措施,以确保孩子的數據不会歪曲他们的未來。

作者:Veronica Barassi

時間:2019年11月

前往 TED 观看视频

標簽:

每一天, 每一个星期,我们都会同意各种服务条款。

每当我们这样做,我们其实就赋予了公司法律上的权利,用我们的數據去做任何事,也包括我们孩子的數據。

这难免使我们感到困惑:我们到底提供了多少关于孩子的數據,它们的用途又是什么?

我是個人類學家,也是兩個女孩的母親。

2015 年,我开始关注这个问题,当时我突然发现很多科技公司从孩子那里搜集到了庞大到无法想象的數據信息。

所以我启动了一个研究项目,叫“儿童數據市民”,希望能够填补空缺的信息。

現在,你們有可能以爲我在責怪你們在社交網絡上傳了孩子的照片,但是這不是重點。

實際問題比分享要嚴重得多。

這事關系統,而不是個人。

你的行爲習慣並沒有錯。

历史上首次,我们开始追踪孩子的个人數據,从他们出生之前——有时候是从受孕开始,然后贯穿他们的一生。

通常,当家长决定要一个孩子,他们会在网上搜索 “怎么怀孕”,或者下载排卵期追踪软件。

等到真的懷孕了,他們會在社交網絡上發布寶寶的超音波圖像,下載關于懷孕的軟件,或者在谷歌上搜索相關信息。

比如,“乘飛機時的流産風險”或者“懷孕早期的腹痛”。

我知道這些,因爲我也有過類似的經曆,而且是很多次。

等到寶寶出生後,他們會用不同的技術記錄每個午覺、每次喂食和每個重要時刻。

所有這些技術都會通過把寶寶的資料分享給別人從而換取利潤。

先给各位举一个例子,在 2019 年,英国医学杂志发布了一项研究:在 24 个健康类的手机软件里, 有 19 个把用户资料分享给了第三方,而这些第三方又分享给了216 个其他的组织。

而这 216 个第四方机构,只有三个属于健康类机构,其他的则是大型科技公司,比如谷歌,脸书或甲骨文, 都是數據广告类的公司,而且还有消费信贷的报告机构。

所以你的猜测是对的:广告公司和信贷机构已经有了宝宝们的數據。

但是手機軟件、網站搜索和社交媒體只是冰山一角,因爲孩子們的日常生活已經被很多科技追蹤了。

他們被家裏的設備和虛擬助手追蹤,他們被教育網站和學校裏的教育技術追蹤。

他們被診所的網上記錄和門戶網站追蹤。

他們也在被連網的玩具、在線遊戲和很多很多其他的技術追蹤。

在我的研究過程中,很多家長問我,“那又怎麽樣?就算我的孩子被追蹤,那又怎麽樣?我們又沒什麽見不得人的秘密。”

但是,這真的很重要。

因爲現如今,個人信息不僅僅被追蹤,還會被用來創建網絡個人檔案。

那些公司会用人工智能和预测分析从不同渠道搜集越来越多的个人數據:家庭历史、购物习惯和社交媒体评论, 然后将这些信息结合在一起去做出关于你的决定。

這些技術幾乎無處不在。

銀行利用這些信息決定批准誰的貸款,保險公司用它們決定保費額度,招聘人員和雇主用它們來決定你們到底適不適合某個工作。

警察和法庭也利用它們去決定這個人是不是罪犯,或者有沒有可能犯罪。

這些購買、售賣和處理我們信息的人究竟如何調查我們和我們的孩子,我們對此一無所知,也沒有任何控制權。

但這些信息會嚴重影響我們的權益。

举个例子,2018 年《纽约时报》发布的一则新闻称,由线上大学规划服务搜集的數據—— 这些數據都来自全美数百万正在寻找大学项目或奖学金的高中生——已经被售卖给了教育數據经纪人。

福特汉姆的研究人员在对一些教育數據经纪人进行分析之后透露,这些公司根据以下类别对不小于两岁的孩子进行了分组: 种族、宗教、家庭富裕程度、社交恐惧症,以及很多其他的随机分类。

然後他們會將這些資料,以及孩子的名字、地址和聯系方式出售給不同的公司,包括貿易和職業發展機構,學生貸款和學生信用卡公司。

更夸张的是,研究人员要求教育數據经纪人提供一份对家庭生育服务感兴趣,年龄在 14 至 15 岁的少女名单。

數據经纪人同意了。

所以不难想象,我们孩子的隱私得到了何等程度的侵犯。

但是教育數據经纪人的例子只是冰山一角。

誠然,孩子們的信息正以不可控的方式被人操縱著,但這會極大地影響他們以後的人生。

所以我們要扪心自問:這些搜集孩子們信息的技術還值得信任嗎?值得嗎?

我的答案是否定的。

作爲一個人類學家,我相信人工智能和預測分析可以很好的預測疾病的發展過程或者對抗氣候變化。

但是我们需要摒弃这些技术可以客观的分析人类數據,我们能够以數據为依据做出关于个人生活的决定这一想法。

因爲它們做不到。

數據无法反映我们的真实情况。

人類往往心口不一,言行不一。

算法预测或者數據实践无法应对人类经验的不可预测性和复杂性。

但是在此之上,這些科技總是——總是——以這樣或那樣的方式存在偏見。

要知道,算法的定義是被設計成實現一個具體結果的,很多套規則或步驟,對吧?

但是這些都不是客觀的,因爲它們都是由帶有特殊文化背景,被特殊文化價值所塑造的人類設計出來的。

所以当机器在学习的时候,它们利用的是带有偏见的算法,以及往往同样带有偏见的數據。

如今,我們已經看到了第一批算法偏見的例子,其中有一些真的很可怕。

今年,位于纽约的人工智能现在研究所(AI Now Institute)发表的一份报告揭示了预测警务领域的人工智能技术是使用非常糟糕的數據进行训练的。

这些數據基本上都是在历史上存在已知的种族偏见和不透明的警察行为时期收集的數據。

因为这些技术都是用这类數據训练的,它们无法做到客观,结果只是放大和进一步深化警察的偏见和错误。

所以我覺得我們是在面對社會中的一個基本問題。

我們正在放心大膽的用各種技術對人類信息進行分析。

我們知道在這方面,這些技術總是有偏見的,結果也永遠不可能准確。

所以我們現在需要一個政治層面的解決方案。

我们需要让政府认识到,我们的數據权利也是人权。

(鼓掌和歡聲)

在这样的转变发生之前,我们无法期待一个更加公平的未來。

我擔心我的女兒們會暴露在各種算法的歧視與錯誤判斷中。

我和我女兒的區別就在于,我的童年並沒有公開的記錄,當然,我十幾歲時做過的傻事和那些荒唐的想法也沒有被記錄。

(笑聲)

但是我的女兒們就不同了。

今天从她们那里搜集的數據在将来有可能被用来评判她们的未來,并可能阻止她们的希望和梦想。

我觉得是时候了,是时候采取行动——无论是个人,还是组织和机构——在一切还来得及之前就开展合作,为我们和我们的孩子争取更大程度的數據公正。

謝謝大家!

(掌聲)