Forum Posts

Md Shafikul
Aug 02, 2022
In Wellness Forum
实施存在潜在(和具体)风险,并且为了避免在没有考虑到社会影响的深入和负责任的工作的情况下对社会各部门造成伤害,有必要建立一个公众辩论应该通过应用这些技术来解决哪些问题,而它们的影响不会比它们要解决的问题更严重。 在所谓的“数据时代”的框架下,有必要详述与利用人工智能的应用相关的权利方面的法律影响和紧张局势,特别是解决偏见和算法歧视的问题. 匿名 权和动态信息自决权的建立被提议作为对算法依赖的保护限制。 限制人工智能和算法偏差的算法依赖性影响 在所谓的“数据时代”的框架内,风险数据处理技术的扩散和广泛使用,缺乏任何敏感性、上下文和真正的控制、透明度和可解释性,例如人工智能、自动学习和机器学习等,带来新的挑战。这些首先与我们作为个人在保护我们的隐私、数据的保护和安全 购买企业电子邮件地址列表 以及自由和真正行使我们的信息自决权时所要求的保护权框架相关联,这被理解为权力每个所有者都拥有对这些数据进行控制和治理的数据。 这就是在我们重 新定义了这些技术的应用程序和实现所使用的算法的技术和法律本质的背景下,我们发现自己只是沦为他们赖以生存的肉。在我们的数据主义和以算法为中心的社会中,一切都被参数化、超监控和控制,我们就是我们的数字身份所反映的我们。 通常,个人的数字身份对某个主题的了解多于他对自己的了解。算法设法从外生的方法渗透到个人、他的心灵、他最亲密和个人的方面,以及个人外部的元素,他们可能知道或不知道从他那里得到了什么。同样,算法作为处理技术,在人权方面缺乏敏感性、标准和自然取
护它的社会重要性 content media
0
0
2
 

Md Shafikul

More actions