“法律、科技与社会”课后思考题答案 - 2024

本文记录了本人复习“法律、科技与社会”课程时,对课后思考题给出的答案。

众所周知,本课的期末考试就是从课后思考题中抽集体来考,怎么复习想必大家都知道了。当然,不知道这几个思考题之后会不会变。

以下答案均为本人手搓,在考试获得了95分,当然这个给分可能有玄学成分在里面,仅供参考。

技术是中立的吗?为什么?

不是。

  • 技术置身于社会中,具有社会性。
  • 技术是占有世界的媒介,同时也是人类活动的一种形式。其背后包含了人类思维结果。

监控资本主义是一个不可避免的趋势吗?还是我们有什么办法改变它?

  • 用户行为数据将为资本带来利益;从资本逐利的本质而言,监控资本主义的趋势不可避免。
  • 这一趋势可以被抑制。
  • 立法与管制
  • 提高公共意识与参与度
  • 探索技术向善路径,减少技术对个人隐私的侵害

学校是否有权使用人脸识别对学生进行考勤?为什么?

  • 自隐私方面:若学校方面明确了:1.收集的人脸识别信息仅用于考勤,2.且收集的信息将按照相关法律法规进行处理,3.并在事前提前征得了同学的同意,则这一方案可认为可行;
  • 然而,根据我国目前出台的相关法律法规,此时也需保证人脸识别不作为考勤的唯一方式。
  • 更严格而言,根据《个人信息保护法》,在公众场合所收集的身份信息只能用于维护公共安全目的,此时考勤并不在维护公共安全范围之内,故可以认为学校无权这么做。

什么是自动驾驶的电车难题?自动驾驶系统应该如何应对电车难题?

  • 自动驾驶系统在事故不可避免时,是优先保全车上人员安全,还是行人等车外人员的安全。
  • 首先是在技术上,要尽可能减少“不可避免事故”的发生;
  • 其次,在设计自动驾驶系统时,应注意伦理方面的考量,确保系统决策符合人类伦理。

是否应该禁止或限制性爱机器人的研发、生产与销售?为什么?

  • 存在物化女性的风险
  • 有悖伦理
  • 存在因此引起的技术以来与奴隶问题。
  • 情感与亲密关系的简化。

什么是致命性自主武器?是否应该禁止或限制致命性自主武器的研发和使用?为什么?

指无需有意义的人类控制即可选择目标并施加武力的系统。

应该。

  • 道义角度:其决策远离了人的判断,在道义上这无法接受。
  • 法律角度:其违背了《国际人权法案》和《武装冲突法》的精神,可能会对非作战人员产生杀伤。
  • 战略角度:研发出的致命自主武器可能会扩散到潜在敌人中。

什么是算法歧视?形成的原因是什么?如果解决算法歧视问题?

算法歧视是指算法在决策过程中,偏向特定人群或不公平对待某些群体的现象。

形成原因:

  • 数据偏差:算法主要依赖于测试数据;数据不全面,则算法可能会因此产生偏见。
  • 设计偏见:开发者在设计算法时融入了个人偏见。
  • 反馈循环:在一些算法系统中,用户行为会反馈到算法中,这可能扩大原有的偏见

改进方法:

  • 改进数据质量
  • 提高算法透明度与解释性
  • 引入公平性评估和偏差测试
  • 用户反馈与持续优化

在人工智能和大数据时代,个人隐私还存在吗?如何才能更好地保护隐私?

  • 存在。
  • 个人角度:提高个人隐私意识,以正当手段维护自己的个人隐私
  • 立法角度:完善相关法律法规,自法律角度约束个人敏感信息的使用
  • 数据收集者角度:尊重用户隐私,避免过度收集用户敏感信息;完善技术手段,减少敏感信息的使用,避免敏感信息的泄露

作为计算机专业的学生,你如何看待人工智能的未来?

  • 自生产工具的角度而言,人工智能将促进人类社会的生产力发展,从而促进人类社会的进步,我们应继续追求人工智能在技术层面的进步,从而进一步发展社会生产力;同时,我们也应积极接受并利用AI这一生产力工具。
  • 自道德伦理角度而言,人工智能的使用,可能出现潜在的道德伦理问题,当前也出现了深度伪造、AI合成假新闻等问题。这需要我们在技术层面加以防范,;
  • 自社会角度而言,人工智能必然会因人工智能的出现,对已有的部分人工进行替代。同时,人工智能的出现,也为我们带来了新的就业机会。因此,我们需要积极顺应这一变化,积极学习AI相关知识,同时提高自身创新能力与软实力。
作者

LajiPZ

发布于

2025-02-04

更新于

2025-02-04

许可协议

评论