回到日历

模式识别:跨学科研讨会

主图:Infodemic(算法生成的视频剧照)2020。图片由Derek Curry和Jennifer Gradecki提供。

请花一点时间停下来,并注意到法律和治理体系现在与公众互动的多种方式,请参加我们于1月21日(星期四)美国东部时间上午9点举行的这场独特的研讨会。

随着印刷媒体和口头交流转向数字化的视觉词汇和定量预测方法,宪法、权利法案和人权公约中包含的民主价值观正日益被边缘化。在某些情况下,黑字法和既定的称呼和纠正模式已经完全被视觉制度(如监控摄像头网络和面部识别软件)或数字叙述(包括对信用价值、医疗倾向和犯罪再犯概率的算法评估)所取代。

这些平行宇宙按照它们自己的逻辑运行,创造了指涉性和内涵性的系统,在这些系统中,真理、正义和公平的概念被危险地重新配置。这种阴险的技术和话语转变强加了新的、往往是不可渗透的种族、性别和阶级类别,强化了现有的隔离界限,而他们的决策权在由人类能动的法理学概念定义的传统问责范围之外运作。我们的目标是破译作为治理系统的正义的语法和语义中所隐含的规范,并揭露在这些新表达类型中隐藏的暴力。

现在已经停止注册了。如果您错过了截止日期,但有兴趣参与,请发送电子邮件Brittani LeBel(电子邮件保护)


演讲

模式识别|格洛丽亚萨顿东北大学艺术+设计系当代艺术史副教授raybet雷竞技雷竞技app最新版

作为一名当代艺术历史学家,我的研究分析了视觉艺术从根本上受到软件协议制约的方式。我的新书《模式识别》(Pattern Recognition)探讨了语言、计算和文化翻译的关键问题,批判了互动性和参与性的修辞如何在现实时间和现实空间中定义当代艺术,并规范和立法机构。我所介绍的艺术家本身就具有多样性和多样性,包括Rafael Lozano Hemmer(生于1967年)、Christine Sun Kim(生于1980年)、Lynn Hershman Leeson(生于1941年)和Marta Minujín(生于1943年),他们的艺术作品将复杂的计算机化跟踪系统、定制软件和传感器与日常硬件设备结合起来,生成实时系统,围绕着普通的人类手势,暴露出定义身体、控制语言和身份的学科框架。

监控正常化的危险|埃文其密封罗彻斯特理工学院哲学系教授

技术治理往往是被动的。监管机构往往坐等坏事发生,然后再试图控制有害活动。隐私学者和活动人士就不采取更多预防措施的危险提出了许多警告。最令人不安的警告之一是,将监控正常化会导致公民认为有害的做法是有益的,仅仅是因为它们被广泛实施,而不是因为人们有充分的理由相信它们是社会可取的。在我的演讲中,我会解释为什么道德心理学研究的实证结果表明这种威胁是可信的。解决这个问题需要理解如果动态是真实的和普遍的,那么治理的后果是什么。我认为“善意正常化”是一个严重的问题,因为它会微妙地侵蚀自主性,引发破坏隐私和公民自由的滑坡轨迹。

隔墙有耳|拉胡尔Bhargava东北大学新闻学院、艺术+设计系助理教授raybet雷竞技雷竞技app最新版

关于技术的未来,一个反复出现的事实是,它会在我们不知不觉中悄悄出现。家用“智能音箱”就是一个例子——它们出人意料地无处不在,却没有对其影响进行任何实质性的反思。这些物件大多是为了与现代住宅融为一体的方块或方尖碑;它们逐渐消失在背景中,所以剩下的只是一个无处不在的声音,当需要时,它会做出回应。我们知道这些设备在听我们说话,但它们的设计并没有强烈的迹象表明它们能听到我们。我们已经开始了一个设计研究项目来探讨这个问题——我们如何设计一种倾听设备,促使用户批判性地思考它的使用?我们的目标是重新设计监听设备以支持反射。我将分享背景,草图,并邀请关于如何在公共领域批评这些设备的输入。

数据监视,信息马赛克和计算思维|詹妮弗Gradecki东北大学艺术与设计系助理教授raybet雷竞技雷竞技app最新版

本讲座将讨论数据监视技术是如何被心灵的马赛克隐喻和计算隐喻所塑造的。马赛克隐喻导致执法和情报机构收集和处理尽可能多的信息,以构建完整的图像,这推动了数据的大规模收集,并产生信息过载。计算主义的比喻将分析师的思维想象成类似计算机的思维,自动化软件也类似于分析师的思维。数据分析公司将能够“思考”和“学习”的“智能”软件作为数据泛滥的解决方案进行营销。自动化系统被认为具有直觉和概率推理的能力,只是比人类分析师更准确,更有效,具有更大的通道容量。一旦这些假设被嵌入到软件中,就很难看到和批评了。由于分类系统、知识产权法和技术素养的需要,公共监督公私社会技术数据监测系统极其困难。

莎拉·霍奇斯|烫发前常驻伦敦的比利时新媒体艺术家

“我们言论自由的基本权利受到威胁了吗?”带着这个问题,马塞尔·托普开始调查美国的大规模监控。萨拉·霍奇斯表达了艺术家对被监控社会中民主安全的担忧。他的项目萨拉·霍奇斯Top质疑了这些技术目前的使用情况,最终暴露了它们所代表的可能威胁。萨拉·霍奇斯是一个不存在的,由算法生成的美国公民。为了创建这个在线虚假形象,托普收集了5万多篇使用#iloveamerica(我爱美国)标签的Instagram帖子。从这些帖子开始,Top能够通过机器学习生成新的不存在的图片。萨拉·霍奇斯的网络存在反映了其他普通人的网络存在,在监控技术看来,他们代表着完美的美国公民。

组织混乱和自动宣传:管理公众舆论的技术官僚方法|德里克咖喱东北大学艺术与设计系助理教授raybet雷竞技雷竞技app最新版

在他1928年的书中,宣传在美国,爱德华·伯奈斯(Edward Bernays)公开主张一小撮技术官僚操纵公众舆论。这个过程被他称为“组织混乱”。伯奈斯解释了“隐形政府”的作用是如何利用宣传,将公众话语提炼为一些可接受的观点,供公众选择。一个类似于Bernays提出的过程最近已经在全球范围内实现,通过使用由一小群技术专家设计的聚类和模式识别算法来预测和影响网络平台用户的行为。本报告将讨论伯奈斯的思想与伊莱·帕里瑟所称的“自我宣传”之间的相似之处,以及他们的问题和技术官僚解决主义对民主和人类代理的方法。

平台、数据和算法社交|Zoetanya Sujon伦敦传媒学院传播与媒体课程主任

随着平台化和全球大型科技平台(如Facebook和谷歌)的崛起,数据提取在个人信息新领域的范围和规模都在持续增长。例如,社交媒体可能已经普及了跨网站提取数据的配置,但这现在已经成为常见的平台实践。在这个时代,每一次点击、查看或点赞都会产生大量的数据,这些数据通常由大公司整理,以获取资本家的利润(另见Zuboff 2015, 2019;Couldry和Mejias 2019;Srnicek 2017)。虽然虚拟现实、健身和卡路里追踪器、约会应用程序、过滤器、标签、面部识别和其他使用新兴社交技术的领域出现了新的数据前沿,但重要的是要问一下这对社交关系意味着什么。具体来说,这些新兴的基于平台的算法社交形式是什么?什么样的社会关系被启用或禁用?本文借鉴了“程序化社会性”(Bucher 2018)、算法文化(Seaver 2017;Kitchin 2014)和算法偏差(Banjamin 2019; Bualamwini and Timnit 2018; Eubanks 2018; Nobl.e 2018) to make sense of algorithms in everyday life and their consequences for emerging social relations.

保守的“受害者”和错误信息|阿里·埃兹拉·沃尔德曼东北大学法学院和库里学院法律与计算机科学教授raybet雷竞技雷竞技app最新版

保守团体喜欢称自己为受害者。他们看到的是一场对圣诞节的战争,一种政治正确的文化。他们认为平权法案使白人成为歧视的受害者。他们认为自己是宗教歧视的受害者,因为平等法要求他们对待酷儿和异性恋者一样。他们认为2020年的选举是被窃取的,他们是选举欺诈的受害者,他们是黑人选民和黑人选举官员手中欺诈的受害者。受害是右翼对进步价值观的口头攻击的核心。它也是其法律战略的核心,即利用传统上用于保护少数群体的理论来巩固他们的权力。在这场法律争论中,虚假信息扮演着至关重要的角色,因为它构成了一种文化的基础,在这种文化中,他们认为当前的体系是非法的。当然,这都是谎言。这个项目为错误信息的讨论增加了一个新的维度,即它在传统权力等级的顶层群体中创造受害模式的作用,以及对受害者身份的公开信仰如何已经影响和改变了法律。

协调与护理伦理|Ilya Vidrin东北大学戏剧系博士后raybet雷竞技雷竞技app最新版

作为一名编舞,我承认舞蹈经常被描绘成一种视觉艺术形式。然而,任何有运动经验的人都认识到,除了可见的东西,还有更多的东西在起作用。在这篇简短的演讲中,我将讨论伦理原则的生理和动觉方面的意义。我将质疑我们如何共同跨越视觉的技术优先级。在这样做的过程中,我将展示合作运动如何发挥关键作用,以突出和破坏嵌入规范的无形暴力,这些规范优先考虑正义而不是护理。


本次研讨会是由伦敦传媒学院、伦敦艺术大学、伦敦大学、伦敦大学和伦敦大学联合举办的可见正义东北大学人文中心(CSSH)和艺雷竞技app最新版raybet雷竞技术中心(CAMD)。

主题:艺术中心