AI成亚洲精品中文字幕无码a片老为我的“同事”

来源: 搜狐中国
2026-01-30 23:53:54

最佳回答

“亚洲精品中文字幕无码a片老”AI成亚洲精品中文字幕无码a片老为我的“同事”

  “AI已经不仅仅停留在‘帮我修改错别字’的浅层阶段了,目前它已经成为我的工作伙伴,承做基础工作,我只负责聚焦核心创意与价值判断。”在北京一家新能源车企就职的新媒体运营专员李思思,从2023年开始尝试用生成式AI工具辅助工作。

  她的日常工作是负责官方公众号、小红书以及视频号的内容产出,核心需求是每周输出3篇图文、2条短视频脚本,既要兼顾“科技+生活”的品牌调性,同时也要适配平台算法、吸引潜在客户。

  而目前,AI工具已经成为她“离不开的助理”,引入AI协作之后,图文内容的初稿、素材的处理、封面设计的生成等基础工作都交给AI完成,单篇图文的产出耗时从3小时压缩到1.5小时,短视频脚本+剪辑耗时从6小时缩短到2小时。“每周可以节省下10个小时的工作时间,用来策划线下的试驾直播、用户故事征集等内容,大大提高了工作效率”,李思思告诉《锋面》记者。

  她说,AI工具目前已经告别了只简单回答问题的阶段,会开始主动给自己提供建议,比如“建议穿插其他内容平衡账号内容结构”“追问补充信息”“甚至记住常用的字幕字体、转场风格”。

  在独立AI开发者路磊看来,目前在一些领域内,AI已经能够进化到开始主动协同。其核心原因是由于技术迭代,新一代大模型通过亿万级参数训练,具备了深层以图感知和长期记忆的能力。

  “目前AI已经能够从指令中拆解出核心诉求,还能记住长期协作中用户的习惯偏好。比如通过建立意图拆解与需求预判模型,通过关键词提取和场景关联的算法,提取出用户的核心需求。”路磊说。在医疗、新媒体等领域里,都已经形成了AI承做基础环节+人类进行核心把控的固定模式。

  但是,现阶段的协同仍然存在一些问题——由于目前的AI尚未实现与人的“深度共生”,人虽然能从机械性的工作中得到部分解放,但是同时面临着AI能力限制、责任分配、情感伦理等风险——这也是接下来AI在人机协同中需要逐一解决的重要问题。

  “要实现真正的AI与人协同共生,还有很多问题要解决。”路磊表示。

  01

  “不敢轻信”

  “AI系统引入以后,对标准化病灶的识别率较高,但是面对非典型、复杂场景时,识别能力就会大幅下降。”张晓华是北京市大兴区某三甲医院放射科副主任,从事胸部影像诊断15年。2024年,医院引入某知名品牌胸部影像AI辅助诊断系统,初衷是让AI承接基础病灶的识别工作,构建“AI初筛+医生复核诊断”的人机协同模式,从以往AI的被动参与,到全程主动介入。

  但落地后,这套系统在“协作”时出现的种种问题,让张晓华越来越谨慎。

  她首先肯定了AI的价值,“对于直径大于5毫米的典型肺结节、大面积肺炎等常规病变,AI可以快速精准标注,无需排查影像,单份报告基础阅片时间缩短一半。”

  但是随着系统的深入应用,张晓华发现所谓的“协同工作”从“高效减负”的初衷,渐渐变成了“反复纠错+双重核验”的复杂模式。

  张晓华对这套系统并不满意:对于直径小于3毫米的微小结节、靠近胸膜或纵隔的隐匿性病灶,AI漏诊率高达40%;面对钙化灶与实性结节的鉴别、炎性假瘤与肿瘤的区分等非典型病变,AI常出现误判,将良性钙化灶标注为疑似恶性结节,或把恶性肿瘤误判为炎症,“这就需要我逐一对比影像细节、结合临床经验修正,反而增加了复核时间。”张晓华说。

  但AI算法的“黑箱”又给张晓华的复核带来更多麻烦。她告诉记者,目前的AI标注系统仅能标注病灶位置,无法解释“为何判定为该病变”,让医生无法快速验证结论的合理性。

  “我的一位病例在AI预判时被标注‘疑似肺结核病灶’,但是结合影像观察后发现,其更符合真菌感染的特征。但我无法快速得知AI判断的逻辑,只能逐一分析影像,查询患者既往病史、血常规等结果,才避免了误诊。”张晓华说。

  也正是如此,AI标注的病灶,张晓华不敢直接采信,必须重新确认每一个细节,因为“AI从来不告诉她结论是怎么下的”,万一基于错误特征判定,“就可能导致严重后果”。

  “目前的AI无法像人类一样整合常识、灵活适配特殊场景。”路磊解释道,“本质上是由于目前的AI仍然处于‘专用智能阶段’,难以应对高标准、高动态的任务需求。一方面是由于数据训练不足,动态数据大多缺失。”

  在算法层面,AI本质上是“概率统计模型”,其核心是在数据中寻找模式并复刻,路磊说,“而不是理解任务底层的因果逻辑”。而且由于算法“黑箱”,导致在协同过程中,仍需要人手动排查。“而且,当前AI很难整合多维度的信息,很容易出现‘信息割裂’导致的偏差。”

  02

  “人类全责,AI免责”

  林语涵是某头部互联网平台内容审核部专员,负责平台泛知识领域内容的合规审查,核心工作内容是识别色情、低俗、虚假宣传等违规内容,保障内容发布的安全。2024年第二季度,平台为应对日均百万级的内容量,上线了AI内容辅助审核系统,AI会主动筛查违规内容标注风险,再由人工进行审核。林语涵从此开始与“AI成为同事,过上了人机协同”的生活。

  但是,在与AI的合作中,一条有关美容仪测评的短视频,在AI初筛评估时判定合规。林语涵将短视频上传至审核系统后,AI在3秒内初筛,并未标注任何风险点。复核时,她重点关注了AI标注结果,因此忽略了视频中“经权威机构认证”的表述。

  参考AI结果,林语涵在人工复核环节选择放行。但是,发布后,有用户投诉举报,称视频中提及的权威机构为无资质第三方,美容仪涉嫌虚假宣传。经平台核查,视频博主确存在虚假宣传,随即下架了视频。

  但是,在内部处理时,林语涵却成为“唯一责任人”。“专员告诉我,因为我是内容最终判定人,没有认真核查视频内容的真实性,所以属于审核不到位。因此给我扣除了绩效,同时要求我写整改报告。”

  AI漏审免责,人工复核担责,让林语涵觉得很不公平。而在路磊看来,责任认定的问题是目前人机协同的另一大难题。

  “一般的AI服务商会告诉你,AI产品仅仅基于关键词、内容元素进行初筛分类,无法解读事实真实性,与AI技术无关。”路磊说。

  但是,林语涵觉得,AI的疏漏才是漏审的核心——“如果AI提示我‘需核查资质’或者‘宣传功效需佐证’,我就可以进一步检索求证了。但事实上AI并没有。”

  目前,不论是从法律法规还是行业标准,AI协同中各方责任的边界规定还是空白。“所以在实践中,AI出了问题会被归咎于‘技术局限’,人类要承担现实中的责任,这反而成为一种默认规则。特别是在医疗、金融这样的高风险领域,合理的责任体系仍然没有建立起来,我认为应当明确AI服务商、平台、使用者的责任,这样追溯起来才能有据可依。”

  03

  如何更好协同?

  可以看到,当前的AI技术已经可以很好地支撑“标准化”场景的主动协同,比如批量筛查、固定流程辅助等。但是在复杂场景、深层的情感感知、模糊需求的拆解,仍然需要技术突破。此外,由于AI介入的程度和范围扩大,其与人之间的人机信任、责任划定问题也开始凸显。

  在开发者的角度看来,是“AI学习不足”的结果。“面对复杂动态的环境,AI需要大量人工干预才能运作,仍然需要持续大量地学习数据、特别是跨领域的数据交叉应用。”

  关于责任界定问题,北京邮电大学刘伟教授此前表示,应当明确人机责任的划分标准:“价值判断、因果推断、海量计算高速对比(责任)归机器,保留人类的一票否决权。”

  上海财经大学胡延平教授则给出了时间维度的分析:初期AI错误率高,需要人类自行担责;中期错误率降低至可接受的范围,则运营者承担部分责任;后期风险可忽略时,形成人机共同担责的模式,但“人类需要始终保有最终接管权”。

  路磊认为则需要在算法中嵌入公平校验机制。从技术层面校准AI对伦理、道德等“人性问题”的判断取向。

  而针对算法黑箱的问题,中国科学院心理研究所胡理团队发文指出,应当在技术上提升AI的可解释性(如开发因果路径追踪工具),在机制上建立动态校准模式,从而化解人机信任危机。

  未来,技术优化与治理完善,将推动AI与人类走向“深度共生”。多位受访者表示,相信在解决当下人机协同的问题之后,AI带来的变革能够更进一步。(于天昊)

  监制:李绍飞

  编辑:于天昊

  审校:刘雅虹

  来源:央视网微信公众号

发布于:北京市
声明:该文观点仅代表作者本人,搜狐号系信息发布平台,搜狐仅提供信息存储空间服务。
用户反馈 合作

Copyright © 2023 Sohu All Rights Reserved

搜狐公司 版权所有