|
有关算法偏见在面孔识别,治安,教育,法律等领域的讨论。有趣的是研究算法偏见和推动立法的主角是一色的女性研究者,和social dilemma里面负责产品技术的白男形成了鲜明对比。 |
|
“Intelligence without ethics is not intelligence at all” |
|
此片充分展现了美英自由主义进步政治、多元化、国内种族正义斗争,与他者化中国/中国人的并行并举。从刻意的无厘头中文翻译(只为表明这是“中国”),到对中国制度的想当然,到采访这唯一一个惊世骇俗的奇葩中国人(号称要感谢信用积分帮助她有效择友)——纪录片最后,美国英雄说,他们和全球反监视斗士站在一起,胜利属于他们。这就很清楚了,“中国”对于这个纪录片的主体而言,一开始就在这场斗争之外。一开始就是他者。一开始就没有相应的人性。是反乌托邦的平行宇宙。用来侧目,用来酝酿,用来自我鞭策。这其实也都无所谓——如果中国不是一个真实的地方,中美关系不是真实的地缘政治,中国人不是血肉的行在这个地球的人。 |
|
比较讲究的纪录片。“我们都在被脸部识别监控;唯一区别就是,钟果对这件事是透明的,而霉果不是。” 大实话给五星! |
|
我竟然被一个靠信用记录交友的傻逼代表了 |
|
大部分美国人,这里特指制片团队,对于中国的态度也是coded bias....一群不了解中国情况的家伙们,don't even care enough to get their translation right (把匹配match直接翻译成比赛也是绝)。不管三七二十一直接把中国打成反面例子,甚至还找了个非典型代表,把信用评分作为交友的依据...你要讨论bias就好好讨论,前半部分关于种族、性别、阶级的例子都发人深省,但中国的部分和你要表现的bias有任何联系吗?算了,反正这片也只是拍给欧美地区的人看的,让他们的观众爽就好了。夹带私货的结果就是加深了普通观众的bias,结合片名看也是讽刺...PS. 发行找了个以AI运算出名的平台,不觉得自相矛盾吗... |
|
在没接触相关的学术探讨之前可能会觉得这部片子角度新颖,现在会觉得只是记录了几个主人公为发声作出的努力,在引导大众重新审视“人脸识别”/AI/算法技术上没有推进。我在想,也许目前传统纪录片形式并不适合去表达这个话题,因为观众已经适应了这个环境,需要更大的“刺激”才能激发辩证思考,形式创新尤为重要。比如互动纪录片Do Not Track,multimedia project Stealing UR Feelings就用更简短的篇幅和互动形式让观众自发地意识到目前算法技术的问题。 |
|
对于行业内的人这部纪录片有点太过于浅显了,翻来覆去的缺点和风险已经说了很多次了,但这个世界也不会因此变好。 |
|
觉得讨论还是流于表面,稍显杂乱。 |
|
HIFF 人脸识别技术隐含的种族与性别歧视,及其广泛使用造成的各行业人权侵犯问题。人不能被算法反控制。而在大洋彼岸某个大国,所有的公民已经接受了时刻被监控,还为支付宝人脸识别功能的便捷而感到骄傲……部分观点还是局限,这种议题哪里缺席讨论就哪里误会加深,有什么办法呢哎…… |
|
73/100 |
|
提出了值得探索的观点,以及适当的话题兴趣,尚可一看。但短短时间内,受访者与镜头开始不断飘摇,别国、AI、数据隐私、新闻事件...一篮子装,就想法太多角度太乱;这些提出最终没有归拢到问题本身,比较可惜,也值得更多挖掘。 |
|
完成度非常非常差,首先中断严重偏题,本身主题是人脸识别技术,但是中间直接跑到大段算法,这是从属关系,如果今天是要讨论算法,那这个东西就深了去了。然而通篇针对人脸识别,也没有足够的论证和论证过程去支撑,大部分只有口号和观点,如果今天有一个人拍一个关于人脸识别如何大面积地降低了犯罪率,那完全可以把舆论转向另一边到,这本应是一个需要强调“宁可错杀一千,不可放过一个”是错误的,但并没有。而且还选取了中国作为一个对照组,但是对于观点选取的极度偏颇也使得这个片子的引导性非常强,就不到一个半小时的片子信息密度还这么低,纪录片可真好拍 |
|
科幻片中的世界已经到来,只是尚未平均地实现在所有人身上。而更糟糕的是,现实是反着来的,更以效率而非道德为准的算法,会先作用在社会底层的人们,在不知不觉中,将你分级分类。而这以科技发展为名的趋势,目前却毫无对其有力监管监督的机构... |
|
为这个片子警示的问题,和里面为之持之不懈努力的人们,应给高分。 |
|
当年刚入职前东家的时候,师傅说,我们现在做的这些项目,说小了必须要经过Algorithmic Impact Assessment,说大了要做好准备随时上国会hearing的,所以每次选择你们的模型调整你们的代码的时候都要想好怎么解释。那句话我记到现在。 |
|
你以為大數據是準的是中立的嗎? 不! 大數據就沒脫離數據本質, Garbage in, garbage out, 很多時候, 我們太多人有太多偏見, 有意的無意的惡意的, 都是偏見, 這些都丟給AI學習, 自然他們就是更糟糕的AI, 這一點是我之前沒有思考過的, 也是看完此片學習到的新的視角! 片中舉了許多美國的慘痛案例, 值得深思. |
|
无语了。一个试图教别人不要有偏见的片子,充满了偏见的教育……… |
|
纪录片本身就是对中国的bias。立意题材结局都挺好的,缺偏要踩这么一脚。 |
|
有讲到big bro is watching you 然后用了一些泥岗去年下半年的footage 很update了 然而字幕打出来 还是难以避免后面跟着逗号柴纳 忍不住想泥岗观众如果见到又该不开心了吧 |
|
这类纪录片的通病是提出一个自以为是,似是而非的问题然后不断重复,其实也毫无解决方案。对技术的理性乐观并想办法在发展中解决问题才是答案。问题出现的时候焦虑是没有用的,简单粗暴的交给立法和所谓人民运动更没有用... |
|
3.5 算法是黑洞,吸收一切,不在乎逻辑、也不在乎道德。性别歧视、种族歧视、人权等隐忧经由算法包装后,大摇大摆地横行。关于我们郭嘉的部分,些许失实,对我们信用体系和人脸识别之间的理解还是太粗暴了。 |
|
算法系统对少数/弱势群体的不公正应该被认识到和怎样解决。今年看到的好几部纪录片都在探讨技术的道德漏洞。这是有必要的,可惜这部片拍得有点乱。 |
|
效率和准确之间做权衡,经济利益和社会公平之间做权衡,这样的权衡不是留给算法留给科技,还是要留给人类,人类依然充满歧视,甚至比计算机更甚,所以提出的问题很可能就成了未来都很难有解的问题,先不说能否数学与模型化,就问善恶的尺度在哪?日漫《心理测量者》给出的探讨或许并不让人舒服,但最终很可能也只能如此吧。 |
|
偏见始终会有,不信你看看你们的中国偏见 |
|
導演應該想一想紀錄片的創作bias |
|
无法评分。一方面是跟我感兴趣的话题很相关的讨论,一方面觉得导演也只是生产了一个纪录片流水线产物,只不过perspective比较有意思。看片高潮在看完片之后,which is when danah boyd is answering my questionnn!!! 我追到星了!(暴言) |
|
一个关于偏见的电影却从头到尾充满了偏见....... |
|
分享一下我们最近由Coded Bias聊开的一集播客:https://www.xiaoyuzhoufm.com/episode/608795f05282b779db6177bb?s=eyJ1IjogIjVmMzNmYjczZTBmNWU3MjNiYjNiMzRkNSJ9 |
|
85分。 |
|
比《监视资本主义》稍好一点。 |
|
太散了,大部分在讲人脸识别带来的个人隐私问题,和编码歧视不切题。 |
|
就典型的西方人视角看世界:要玩儿完了,世界末日 |
|
有点可怕。。。。。。结尾是从哪里找来的傻x 还愿意和信用高的人做朋友 还记得黑镜第三季吗 |
|
观点不错,镜头语言丰富,有些地方略显累赘,在如何抗争方面也没交代清楚,单方面表达(不过也没办法),但主角成就斐然。如果是一部展现如何抗争的片子,少了过程;如果是陈述观点的,又略显薄弱。 |
|
210415 |
|
真是指桑骂槐 |
|
2022年5月12日看过 |
|
Intelligence without ethics is not real intelligence.
多數人可能覺得AI具有前瞻性和先進性,但人工智能基於數據,而數據承載著過去。所以歷史中的一切不平等如種族歧視、性别歧視等也存在於算法中。很典型的一个例子是微软在推上搞了个bot叫Tay,让它不断学习推上的数据,然后不到24小时Tay就变得厌女和歧视犹太人和黑人…看完整个纪录片后,问题来了,该如何在一個我們不知道算法如何運作的系統里獲得公平?或许用法律阻挡人脸识别的滥用是第一步,可是下一步呢? |
|
Algorithm Surveillance and Discrimination are universal, there is really no need to attack China that hard. |
|
其实不完全算偏题,因为人脸识别也是算法…… |
|
一个迷思,西方国家的人们会不会因为“十分方便”像是快速支付这些功能,而大范围接受人脸识别这种功能呢?监管这些数据的使用确实是迫在眉睫,米国有国会hearing可以接收这方面的新意见,不知道天朝是否也有类似途径 |
|
关于现在和未来的一部,好复杂的问题,只选择了一个面,但没有拍出事件感,还是比较琐碎。
|
|
很有啟發作用的一部電影。01:12:39,080 in the age of automation is one of the largest civil rights concerns we have(在自动化时代,算法正义是我们最大的民权问题之一)。從世界範圍(要減去東亞窪地)來看,人面識別以及AI產生的糾紛和錯誤很多,不是隨機性的錯誤而是系統地存在偏差bias的錯誤,亦即不滿足“無偏性”的判斷方法,在統計學的標準中是根本沒有存在資格的。東亞窪地之內,根本不存在討論這個問題的必要性。此處的人們不配。 |
|
太琐碎了,专题纪录片,老生常谈的话题,没做出太多新意 |
|
可以和《海盗湾》放在一起。 |
|
3.5 |
|
90分钟信息量很大,印象深刻也是杭州那位女士,丝毫不担忧信息安全,只觉得什么都刷脸好方便 |
|
有被冒犯到 但不得不说一针见血 |
|
关键是最后撬动立法(本质上是给政府以掣肘big tech的筹码),技术上nothing we don't already know.
其它地方都是研究员博士生活动家,中国那段采访对象是路人吗… |