曾碾
2019-07-29 07:06:08

纽约 -联合创始人兼首席执行官萨尔帕萨表示,Predictim是一款使用人工智能审查潜在保姆的应用程序,发誓要继续使用社交媒体数据来改善其推荐引擎,即使被Facebook和Twitter阻止。

“我们将继续我们现在正在做的事情,帮助父母决定他们想要信任的人,”帕萨在接受哥伦比亚广播公司新闻采访时说。

Parsa的公司使用一种称为自然语言处理的AI形式来过滤和排序从社交媒体网站收集的大量信息中收集的搜索结果。 Parsa说,Predictim的产品旨在帮助父母和宠物主人更多地了解潜在保姆,狗步行者和其他看护人的个性特征。

趋势新闻

该公司的技术基于社交媒体活动产生“风险评分”,该活动对一个人的态度以及他们参与在线骚扰或滥用药物的可能性进行排名。 该网站还标记可疑内容,并自动生成一份报告,解释每个排名的含义。

“我们的人工智能评估个人在欺凌,骚扰,性暴力内容和滥用药物方面的在线行为,”Parsa说。

Facebook,Instagram(由Facebook拥有)和Twitter最近因违反科技公司的数据收集和用户隐私规则而阻止了Predictim。

“我们严格禁止将Twitter数据和API用于监视目的,包括进行背景调查,”Twitter发言人Nick Pacilio说。 “当我们意识到Predictim的服务时,我们进行了调查并撤销了对Twitter公共API的访问权限。” API是的首字母缩写,该技术允许计算机应用程序交换信息。

Facebook没有回应哥伦比亚广播公司新闻的评论请求,但最近 BBC,“在Facebook上搜集人们的信息是违反我们的服务条款的。”

Pasrsa反对禁令。 “我们不会在Facebook上使用自动刮刀,因此我们不会违反他们的平台政策,”他说。 “我们使用公开数据。”

自该产品推出以来,Predictim应用程序对公共数据的使用一直存在争议。 一些用户指出该公司的结果不一致,并表示担心除了社交媒体信息之外,Predictim可能依赖于 (OSINT) - 常用的如学术期刊,智囊团研究和传统群众媒体报道。

数字隐私专家 在OSINT上使用数据过于通用,会产生“模糊,内在容易出错”的结果。

“假阳性和假阴性的可能性很大,准确性依赖于请求者和目标公开的数据越来越多,”克拉克说。

AI专家对该公司不透明的方法表示怀疑,并担心其使用的数据源可能导致不准确,不完整或破坏性的结果。

“很多数据集都存在偏见,特别是针对女性和少数民族,”人工智能专家,“ ”一书的作者詹姆斯巴拉特说。 “许多数据集都是手工编码的,有时几十年前,并且已经传承了他们的创造者的偏见。例如,佛罗里达州的监狱判刑算法是使用历史监狱句子建立的。他们对少数民族来说更加苛刻。”

巴拉特也对使用人工智能根据社交媒体信息对个人进行排名持怀疑态度。

“是什么让未来的雇主,甚至是真正的雇主,都有权通过要求访问他们的社交媒体账户来侵犯某人的隐私?” 巴拉特问道。 “这些神奇的排名算法背后的过程是'黑盒'系统,这意味着你无法深入了解排名是如何制作的。”

Predictim也在网上被批评使用恐吓策略在其宣传材料中针对幼儿的父母。 在Predictim网站上两个文件使用了儿童的图像以及有关该公司的“先进人工智能”如何防止悲剧的轶事。

有一个故事,标题是“ , ”,描述了一个孩子受到罪犯伤害的情景。 “一位母亲需要走出城镇,所以她只是依靠一个她过去信任过她的孩子的人。但是,这一次,保姆是出于痛苦,”Predictim场景说。

这些言论困扰着许多技术专家,包括David Heinemeier Hansson,程序员和流行编码语言创建者。 他说:“我认为制造不透明判决的黑匣子AI对人们的生活产生重大影响既严重又危险,误导和不负责任。” “当我们不知道算法中有什么时,就没有什么可以信任的了。”

Heinemeier Hansson解释说,保姆可能会受到依赖社交媒体数据的AI系统的伤害。 他说:“我认为不可能查看22篇Twitter帖子,然后以合理的确定性宣称撰写这些帖子的人容易吸毒或社交性格差。” “他们的尊严因受到这个过程的影响而降低”并且“他们可能无法获得他们非常有资格的工作,因为机器给了他们一个[糟糕]的分数。”

但帕萨反对最近的批评。 “我们将[技术]与其他模型叠加在一起,使最终输出可以解释,而不是黑盒子,”他说。 “每一次被标记为中等或高风险的扫描都由受过有意识和无意识偏见训练的分析师进行人体评估,我们向父母展示了为什么AI标记这个人以便他们自己做出判断的例子。”