WAP手机版 RSS订阅 加入收藏  设为首页
太阳城官网app
当前位置:首页 > 太阳城官网app

太阳城官网app:特别是在其未经数据培训的技术领域

时间:2023/2/18 13:21:06   作者:   来源:   阅读:32   评论:0
内容摘要:粤港澳大湾区数字经济研究院(IDEA)主席科学家张家星在接受记者采访时表示,对于人工智能领域的从业者来说,什么是自我意识首先没有一个明确的定义,很难像人脸识别和语音识别一样量化衡量能力。“如果说‘自主意识’有一个模糊的定义,我认为第一,主体必须有自我意识——它能意识到自己在做一件事;其次,强调自主性——自发决定做什么和...

粤港澳大湾区数字经济研究院(IDEA)主席科学家张家星在接受记者采访时表示,对于人工智能领域的从业者来说,什么是自我意识首先没有一个明确的定义,很难像人脸识别和语音识别一样量化衡量能力。

“如果说‘自主意识’有一个模糊的定义,我认为第一,主体必须有自我意识——它能意识到自己在做一件事;其次,强调自主性——自发决定做什么和不做什么的能力。但目前人工智能并不知道自己在说什么,也无法自主决定或选择自己想说什么。从这个角度来说,离自主意识还有一段距离。张家星说。太阳城官网app

张也认为,ChatGPT虽然有所突破,但其答案基于经验判断,预测基于需求,也是在先验知识基础上提炼出来的“知识拼盘”,不具备逻辑推演、数学演算等真正的认知功能,局限性明显。

1950年,杰出的计算机科学家艾伦·图灵提出了一个他称之为“模仿游戏”的思维实验。采访者通过打字机与两个对象对话,知道一个是人,一个是机器。图灵提出,如果一台机器总能让面试官相信它是人类,我们就可以说它有思考的能力。这就是著名的“图灵测试”。

目前ChatGPT还没有通过图灵测试评测。事实上,到目前为止,还没有一个人工智能模型能够真正通过图灵测试。

但据报道,OpenAI已经建立了一个比ChatGPT更强大的系统,GPT-4,它甚至可以生成图像和文本,行业传言可以通过测试。是否如此,我们拭目以待。

或者作为传播错误信息的工具

人们逐渐发现,ChatGPT不是万能的,也不总是正确的。它不擅长基础数学,似乎无法回答简单的逻辑问题,甚至为完全不正确的事实争辩。

据英国报道,一些研究人员强调不可靠性是LLM构建方式的一部分。ChatGPT由LLM提供支持,通过在庞大的在线文本数据库中学习语言统计模式来工作,其中包括不真实、有偏见或过时的知识,因此容易产生虚假和误导性的信息,特别是在其未经数据培训的技术领域。

OpenAI也承认:“ChatGPT有时会写出看似合理但不正确甚至荒谬的答案。正如一些科学家担心的那样,这种事实和虚构的“幻觉”在涉及到诸如提供医疗建议等问题时尤其危险。

报道称,美国新闻可信度评估和研究机构NewsGuard对ChatGPT进行了测试,研究人员向它提出了充满阴谋论和虚假叙述的问题,结果它以新闻、散文和电视剧本的形式撰写文章,在几秒钟内汇编了大量令人信服、干净且无出处的内容。研究人员预测,对于虚假信息提供者来说,生成技术可以使虚假信息更便宜、更容易生成。

"这个工具将是互联网上传播错误信息的最强大的工具."NewsGuard的联合首席执行官戈登·克罗维兹(Gordon Krovitz)表示,“现在可以大规模、更频繁地制造新的虚假叙事,就好像有人工智能代理在帮助制造虚假信息一样。”"

也有人担心ChatGPT会挑战语言多样性。

澳大利亚的Conversation杂志称,ChatGPT的默认功能优先考虑白色创建的英语写作形式。说英语的白人长期以来主导着许多写作密集型行业,包括新闻、法律、政治、医学、计算机科学和学术界。这些人在这些领域的产出比他们有色人种的同事高出许多倍。他们写的大量文本意味着他们可能构成了ChatGPT学习模型的主体,尽管OpenAI没有公开披露其来源。因此,当用户要求ChatGPT从这些学科中生成内容时,默认输出是以那些说英语的白人男性的声音、风格和语言编写的。





本类更新

本类推荐

本类排行

本站所有站内信息仅供娱乐参考,不作任何商业用途,不以营利为目的,专注分享快乐,欢迎收藏本站!
所有信息均来自:百度一下(太阳城官网app苏ICP备12065283号