维基百科讨论:翻译指引/存档2
本页是以往讨论的存档。请勿编辑本页。若您想发起新讨论或重启现有讨论,请在当前讨论页进行。 |
内容翻译将不会再持续触发大量建立条目过滤器导致无法发布
过滤器本地修了。如题,仅于此公告。--Xiplus#Talk 2021年5月10日 (一) 15:29 (UTC)
- 本人曾制作绕过脚本TranslationHelper.js用以绕过过滤器发布到自己用户页,但愿今后不需要了,笑。--E.A.Crowley666✍️ 2021年5月12日 (三) 15:35 (UTC)
DeepL
今日留意到有用户因为在中文维基百科增添以DeepL机器翻译([1])的文字而遭到封禁。让我有点震惊的是,经过比对某英文维基百科条目原文和机器翻译产生的中文文句,在某些段落上我发觉自己的翻译水平比DeepL好不了多少。--Mewaqua(留言) 2021年6月23日 (三) 01:29 (UTC)
- Wikipedia:翻译指引#翻译注意事项。--寒吉 2021年6月23日 (三) 08:57 (UTC)
- 13年前“通过各种翻译软件或者在线翻译网站进行机器翻译的条目,由于机器翻译的质量很差,很容易让人难以理解内容。”(“Wikipedia:翻译指引”2007年8月20日版本)这段话也许在当时大致正确,但是我觉得今时今日DeepL英译中的文句不至于“品质通常都会差到让人难以理解”,虽然也不是绝无错误。--Mewaqua(留言) 2021年6月23日 (三) 10:53 (UTC)
- “桶川跟踪狂杀人事件”→
- 日语条目为“桶川ストーカー杀人事件(おけがわストーカーさつじんじけん)とは、女子大学生が元交际相手の男を中心とする犯人グループから嫌がらせ行为を受け続けた末、1999年(平成11年)10月26日に埼玉県桶川市のJR东日本高崎线桶川駅前で杀害された事件。警察捜查上の名称はJR桶川駅西口女子大生路上杀人事件。桶川事件とも呼ばれる。本件の発生が契机となり、2000年に“ストーカー规制法”が制定された。”
- 陈寅恪使用DeepL翻译成中文为“大溪川跟踪者谋杀案是指1999年10月26日,一名女大学生在埼玉县大溪川市的JR东高崎线大溪川站前被谋杀,因为她受到了以前男友为首的一群犯罪分子的持续骚扰。 在警方的调查中,它被称为JR冲绳站西口女大学生路边杀人案。 它也被称为大溪川事件。 这一事件导致2000年颁布了《跟踪者管理法》。”
- 实际应该翻译成中文为“桶川跟踪狂杀人案,是一名女大学生因生前不断受到以过去约会对象为核心的犯罪集团跟踪骚扰之后,1999年10月26日在日本埼玉县桶川市的东日本旅客铁道高崎线桶川站外遭到杀害的事件。日本警察[…]此事件促使《缠扰防治法》在2000年通过施行。”
- 陈寅恪只单纯机器翻译,根本没在为该粗体的地方加上粗体,该加上内连的地方加上内连,该调整的格式都没调整,很多专有名词都如下方安亭所言都随便机器翻译乱译,最过分的是参考资料也不附上。我们其他用户不应该花时间帮这种用户收拾烂摊子吧(Special:Diff/66075475/66080638)。--寒吉 2021年6月24日 (四) 10:03 (UTC)
- “桶川跟踪狂杀人事件”→
- 13年前“通过各种翻译软件或者在线翻译网站进行机器翻译的条目,由于机器翻译的质量很差,很容易让人难以理解内容。”(“Wikipedia:翻译指引”2007年8月20日版本)这段话也许在当时大致正确,但是我觉得今时今日DeepL英译中的文句不至于“品质通常都会差到让人难以理解”,虽然也不是绝无错误。--Mewaqua(留言) 2021年6月23日 (三) 10:53 (UTC)
- 认真看条目了吗?上面提到的编辑中:
- “波士顿凯尔特人队刚刚结束了1949-50赛季的NBA比赛,取得了22胜46负的糟糕战绩,并获得了第一个选秀权”,first draft pick错译,应为“首轮选秀权”;
- “然而,教练雷德-奥尔巴赫却为了中锋查理-享乐而放弃了他,他说 "我是要赢球,还是要取悦当地的乡巴佬?" ”,1. snubbed him for center Charlie Share,意思是这个教练看中了中锋Charlie Share,而放弃了他;2. 查理-享乐人名错译,应为查克·谢尔
- “当地媒体强烈批评奥尔巴赫,但其他球探也对库西持怀疑态度,认为他很张扬但没有效果。”,flamboyant but ineffective,华而无实,不是什么没有效果;
- “一位球探在他的报告中写道。"他第一次在这个联盟中尝试那些花哨的丹的东西,他们就会把球塞进他的喉咙。" ”,fancy Dan stuff,耍花招,不是什么“丹的东西”;
- “作为不得不放弃他的驾驶学校的补偿,库西要求黑鹰队老板本-克纳给他10,000美元的薪水。”,“不得不”无需翻译;
- “库西随后被芝加哥雄鹿队选中,但当他们倒闭时,联盟专员莫里斯-波多洛夫宣布有三名雄鹿队球员可以参加散兵游勇:球队得分王马克斯-扎斯洛夫斯基、安迪-菲利普和库西。”,1. 球队“解散”不是“倒闭”;2. dispersal draft,解散选秀,不是什么“散兵游勇”;
- “他后来明确表示,他希望得到扎斯洛夫斯基,会容忍菲利普,而不想要库西。”,希望选中扎斯洛夫斯基,能接受菲利普,但不接受库西;
- “当凯尔特人队抽到库西时,布朗坦言。"我本来可以倒在地上的"。”,"I could have fallen to the floor",我差点瘫倒在地;
- “库西以平均每场15.6分、6.9个篮板和4.9次助攻的成绩,获得了他连续13次入选NBA全明星的第一次机会,并在1950-51赛季的NBA比赛中,带领着拥有未来奈史密斯篮球名人堂成员埃德-澳门利和邦斯-麦金尼的凯尔特人队取得了39-30的成绩。”;
- “在下个赛季,随着未来名人堂后卫比尔-沙曼的加入,库西平均每场比赛得到21.7分、6.4个篮板和6.7次助攻,并首次获得全NBA第一队的提名。”,All-NBA First Team是NBA最佳阵容,是那个人获得了NBA最佳阵容的荣誉,不是那个队入选了什么“全NBA第一队”;
- “在接下来的赛季中,库西取得了进一步的进步”;
- “平均每场7.7次助攻,他赢得了连续八次助攻冠军中的第一次。”;
- “这些数字是在NBA还没有引入投篮时间的情况下取得的,这使得比赛变得静态,使多产的助攻者处于不利地位。”,“多产的助攻者”;
- “尽管腿部受伤,但他在四节比赛后得到了25分,在第一个加时赛中得到了球队9分中的6分,在最后几秒钟投中了一个关键的罚球,并在第二个加时赛中得到了波士顿的全部4分。”
- “在第四个加时赛中,他得到了波士顿队12分中的9分。”;
- “在接下来的三年里,库西牢牢确立了自己作为联盟最佳得分后卫之一的地位”,"point guard"明明是控球后卫不是得分后卫;
- “在所有3个赛季中,库西的助攻数都是联盟第一,平均20分和7个篮板,多才多艺的库西又为自己赢得了3次NBA第一队和全明星的荣誉,同时也是1954年NBA全明星赛的最有价值球员。”;
- “在打球风格方面,库西引入了一系列视觉上有吸引力的街头篮球动作,被NBA描述为混合了俯卧撑、背后运球和 "无视传球、背后传球或半场快攻发射"。”,1. ambidextrous是双手交替传球,不是什么俯卧撑;2. launch是发起,不是发射;
- “库西的工作方式与NBA其他球队形成鲜明对比,后者由肌肉发达的低位得分手和刻意设置的射手主导。”,这是篮球比赛还是射击比赛?
- “不久,他被称为 "硬木的胡迪尼",取自魔术师哈里-胡迪尼。”,hardwood美国俚语里是篮球场的意思,不是什么“硬木”;
- “库西讨人喜欢和有效的比赛吸引了波士顿花园的观众,也赢得了教练奥尔巴赫的青睐,他不再认为他是一个累赘,而是未来的一个重要基石。”,“波士顿花园”是个体育场;
- “与凯尔特人队的同事鲍勃-布兰纳姆一起,洛斯库托夫也成为库西的非正式保镖,对试图伤害他的对手球员进行报复。”,
- 比起不懂就输出乱码的软件,这种乍一看很通顺,但实则夹杂着各种大小错误(平均1.5句一个明显错误),不懂装懂的软件,某种意义上危害性更大。如果读者没有查证(而这不是读者的义务),他/她不会意识到原文想说的是“首轮选秀权”而不是那个队第一次获得选秀权;“ 查理-享乐”其实不叫这个名字;球队解散以后老球员是参加了一次“解散选秀”而不是加入了“散兵游勇”队;那人自己选入了NBA最佳阵容,而不是带领那个队获得了NBA第一队的荣誉;在场上打的是控球后卫不是得分后卫;等等。--Antigng(留言) 2021年6月23日 (三) 14:43 (UTC)
- 我比对的是en:George Bellows的小部分文字,另外也用en:Tigray War的小部分文字去比对,不过Antigng在上面的分析很好。--Mewaqua(留言) 2021年6月23日 (三) 15:09 (UTC)
- 我也发现了,最近这两年各大机器翻译都偏爱那种文邹邹的调调,好的时候读起来挺好的,糟糕的时候很糟糕,就跟抽疯一样--百無一用是書生 (☎) 2021年6月24日 (四) 02:46 (UTC)
- 我比对的是en:George Bellows的小部分文字,另外也用en:Tigray War的小部分文字去比对,不过Antigng在上面的分析很好。--Mewaqua(留言) 2021年6月23日 (三) 15:09 (UTC)
- 似是而非,不如不用。—— Eric Liu 创造は生命(留言.留名.学生会) 2021年6月25日 (五) 06:12 (UTC)
是否可以为他人翻译的条目添加{{Translated page}}
Wikipedia:翻译指引指出应该在翻译条目的讨论页挂上{{Translated page}},这虽然只是一个指引,但未进行该步骤(或在编辑摘要声明)的话就是违反了CC BY-SA 3.0协议署名的要求。现在发现一些明显是翻译的条目却没有恰当署名,这样放着应该是不合规的。但他人为这些条目添加{{Translated page}}可能产生信息错误(如原始条目语种不明)及潜在的法律问题(演绎作品的著作权声明义务应该属于原始翻译者)。不知道社区对这一点有没有共识呢?--立日(留言) 2022年6月16日 (四) 09:27 (UTC)
- 如果能确认翻译源是来自于其他语区维基百科的话,可以。如果能跟编辑者确认的话,最好是这样。——Sakamotosan路过围观 | 避免做作,免敬 2022年6月16日 (四) 09:46 (UTC)
- 好像日区对于这样情况会非常严格要求版本甚至正页侵权删除。而本语区基本上没特定地针对这种情况,或者默许或不知道存在这种编辑状况。——Sakamotosan路过围观 | 避免做作,免敬 2022年6月16日 (四) 09:48 (UTC)
- 简单来讲:
- 可以的
- 应该的
- 条目讨论页是公共空间,任何人可以进行编辑,没有什么需要回避的问题;而遵守版权要求也是必须的,因此如果确实是翻译来的,应当全部挂上。--MilkyDefer 2022年6月16日 (四) 11:54 (UTC)
- 同milky.--Temp3600(留言) 2022年6月16日 (四) 12:33 (UTC)
- 如果能确认,可以。建议通知译者(如留言或{{ping}})并建议后续创建自行做出标注。更极端例子参考Template:Yeeyan。--YFdyh000(留言) 2022年6月16日 (四) 22:49 (UTC)
- 谢谢大家的意见,这样以后发现这类条目可以放心加上了。--立日(留言) 2022年6月18日 (六) 10:03 (UTC)
- 翻译的条目需要加上其它维基百科的来源,因此可以直接添加,不通知主编也行。--Leiem(留言·签名·维基调查) 2022年6月18日 (六) 10:12 (UTC)
机器翻译不应该一刀切
机器翻译可以提高翻译效率,它有好的方面也有不好的方面,但是不至于一刀切。当然人工修改是不可或缺的。如果规定看到疑似翻译就可以草稿画,提删,不只造成模糊的裁量权,而且还容易矫枉过正。--Hzt0208042508415531 tw(留言) 2022年7月28日 (四) 18:40 (UTC)
我没有看到其他语言禁止使用机器翻译,包括粤语。所以这个规则是否应该修改呢? 英语维基百科推荐使用谷歌翻译,当然它翻译中文不理想,我们可以推荐更好的翻译吗? 这个是俄语中的有关部分
机器翻译是一种帮助,但不能替代现场翻译。在为 Wikipedia 翻译文本时,您可以使用自动翻译程序,例如Google Translate、Yandex.Translate或DeepL。现代技术允许您通过机器翻译器运行外语文章,并立即获得完成的俄语文章 - 但您不必屈服于立即将其发布在俄语维基百科上的诱惑(您可以在个人草稿中)。最多将机器翻译视为草稿,这是构建完整的俄语文章的基础。包含原始机器翻译的文章会在没有讨论的情况下迅速删除 - 此C2有一个单独的标准:文章不是俄语或机器翻译。文章的主题、重要性和必要性无关紧要:如果读者想通过机器翻译阅读原文,他可以自己通过机器翻译来运行。机器翻译通常会忽略脚注,非常重要的是,会忽略对权威来源的引用——它们必须手动放置。一篇根本没有引用权威来源的文章也可以通过标准C5 快速删除:没有百科全书意义证据的文章——不管这些引用是否在原著中。
--Hzt0208042508415531 tw(留言) 2022年7月28日 (四) 18:44 (UTC)
- 日语版似乎禁止机器翻译,我之前创建一篇条目就被以侵权为由删除了。--Thyj (คุย) 2022年9月22日 (四) 05:42 (UTC)
- 从ja:Wikipedia:削除依赖/ハルダル・ナグ理由看,似乎是过度依赖机翻(修改不足)和内容源标注不规范。我不确定不规范具体指什么,但大概是译文太过机翻了。--YFdyh000(留言) 2022年9月22日 (四) 05:51 (UTC)
- 我第一次在那里创建,所以还不知道。--Thyj (คุย) 2022年9月22日 (四) 06:18 (UTC)
- 从ja:Wikipedia:削除依赖/ハルダル・ナグ理由看,似乎是过度依赖机翻(修改不足)和内容源标注不规范。我不确定不规范具体指什么,但大概是译文太过机翻了。--YFdyh000(留言) 2022年9月22日 (四) 05:51 (UTC)
翻译工具还有用吗?
不能使用翻译工具不说,我逐字翻译后,最后“你的翻译总共有1%未经修改的文字”而无法发布,这1%估计是模板及外语标示,连放去自己的沙盒都不准。——白布飘扬(留言) 2022年12月31日 (六) 16:20 (UTC)
中维的翻译指引中介绍了{{TransH}}与{{TransF}}的使用,造成了模板的滥用。英维的翻译指引并未介绍模板使用,模板使用量也不大,已于14年提删通过。
提议修订WP:翻译指引,移除对模板的介绍,并在清理使用的页面后正式弃用{{TransH}}与{{TransF}}。
|
|
--PexEric 💬|📝 2023年1月21日 (六) 08:17 (UTC)
- 该模版于不少计划页面、模版介绍页仍有作用,不应废除。--Temp3600(留言) 2023年1月21日 (六) 13:13 (UTC)
- 非条目空间的由机器人转成其他通用折叠模板?感觉原文就原文,放那里也没影响,没必要专门造个模板。看不下去也不想翻译的,用
<!-- -->
藏掉就好了。--洛普利宁 2023年1月21日 (六) 13:25 (UTC) - 主要是停用,不是移除。修订指引后在模板页挂上{{Deprecated template}},不引导编者再使用了。至于使用的页面可以慢慢清理,并不着急。--PexEric 💬|📝 2023年1月24日 (二) 06:26 (UTC)
- 在条目中的确不应再放未翻译材料了。但在模版介绍页这仍是常用做法(谁有空译这些?),注释掉也不便后人理解。暂时想不到可以替代它的模版。--Temp3600(留言) 2023年1月24日 (二) 16:41 (UTC)
- 非条目空间的由机器人转成其他通用折叠模板?感觉原文就原文,放那里也没影响,没必要专门造个模板。看不下去也不想翻译的,用
- (+)支持,transH模板本身不需要废,但使用transH模板的一个很大的问题是,处于其中的其他模板,ref,分类都会在正文里显示出来,而通常这些都未译,例,因此支持将指引中的内容移除。->>Vocal&Guitar->>留言 2023年1月23日 (一) 04:47 (UTC)
- 支持提案,具体意见同Ohtashinichiro。Sanmosa Συ γάρ μοι και μοίρα εί και τύχη 2023年1月23日 (一) 06:22 (UTC)
- (~)补充:Wikipedia:模板消息/清理#折叠也需要同时修订更改。——PexEric 💬|📝 2023年1月25日 (三) 13:12 (UTC)
公示7日,2023年2月6日 (一) 09:07 (UTC) 结束--PexEric 💬|📝 2023年1月30日 (一) 09:07 (UTC)
- 先(-)反对,未提出如何解决部分翻译的问题。这个公示是不是有些过早?--Kethyga(留言) 2023年2月5日 (日) 11:20 (UTC)
- 基本上根据WP:翻译指引,"当一个条目超过3个月内没有进行翻译,那么将撤去翻译模板,删除非中文的内容"。我刚在约使用到这两个折叠模板的四百多个一般空间条目中随便点开几个来看,基本上都可以使用"3个月未翻译撤去模板"的规定进行模板撤除与非中文内容删除。与其说被滥用,倒不如说该清理而未清理,与其届时清理,不如直接开始清理吧。其次英语维基百科删除的原因是未使用(Unused),而中文维基百科目前使用量(含模板、使用者空间等)约六百笔,看起来很WP:ENWPSAID。与其先改翻译指引,不如先清理完四百多个一般空间条目,看看不适用"3个月未翻译撤去模板"而剩下来的一般空间条目与约一百多笔的使用者页面条目的情况,再行指引修改的讨论,可能会比较适宜。--Anghualee(留言) 2023年2月8日 (三) 16:54 (UTC)
- 提议搁置
。——PexEric 💬|📝 2023年2月18日 (六) 11:09 (UTC)
提议限制在维基百科使用ChatGPT及类似工具
最近几个月爆火的ChatGPT可以按照人类的提示生成文本,并且能根据人类的意见进行修改。但其生成的文本常常似是而非,看上去没有问题而实际上却含有事实错误,因此如果在条目中大量使用,可能会具有非常恶劣的影响。
StackOverflow已经禁止使用ChatGPT生成的内容,因此,中文维基百科社群是否应该跟进?
可行的方案:
- 完全禁止使用ChatGPT生成的内容编写条目;
- ChatGPT生成的内容须经过人工审阅确认无问题之后才允许出现在条目中。
相关链接:
- Temporary policy: ChatGPT is banned - Meta Stack Overflow
- Should ChatGPT be used to write Wikipedia articles? - Slate
以上。--Diskdance 2023年1月28日 (六) 01:42 (UTC)
- 原则上支持,但不论是禁制还是审阅如何自动分辨为需要审核或禁止?人工难以审核每一个新页面和版本差异确认没有AI编写内容。--路西法人 2023年1月28日 (六) 01:47 (UTC)
- 以Stack Overflow为例,他们唯一能实际做的是在有用户被发现疑似使用ChatGPT的时候才予以禁制,无法杜绝有关内容的发布。您的两个建议方案都涉及审核所有ChatGPT写的内容,除了一般的举报外如何做到?还是只能跟现在的侵权提报一样有人发现才报?--路西法人 2023年1月28日 (六) 01:50 (UTC)
- 不认为您的方案可行。ChatGPT等工具并不像Google Translate那样输入和输出总是相同,很容易受到使用者的影响,不是能够直接禁止的。社群似乎也不具备人工审核每一笔编辑的能力。若要求使用此类工具的用户主动声明倒是可以,但也定然不是所有用户都会主动声明。同时,用户也可能是生成后自行润色,将其质量提升到可接受的标准后再发布。—— 月_樱_雪 (留言) 2023年1月28日 (六) 01:54 (UTC)
- 1不实际可行,缺乏有效检测手段。2在当前意义不大,条目本应被巡查,没有必要“歧视”。如有滥建、批量建立发生,按寻常规则处理即可,判断是否出自AI及质量如何没有依据。对要求申报表示支持,参考机器人、有偿编辑等方针,但落实存难度会变成君子协定。--YFdyh000(留言) 2023年1月28日 (六) 03:09 (UTC)
- 这是恶意推定,我不知道使用ChatGPT造成何种破坏或者违法哪一方面的规则。--Cat on the Mars 2023年1月28日 (六) 03:56 (UTC)
- 这个时候就得搬出User:0xDeadbeef在英维举出的例子了。以下是使用ChatGPT生成的关于Rust for Linux的条目片段(方便不懂相关领域的编者,部分术语我自己添加了内链):
Rust for Linux是向Linux内核项目提交的一系列补丁的总称,这一系列补丁让Rust语言可以用于编写内核组件。该项目始于2017年,由一群对将Rust用作系统底层开发感兴趣的志愿者发起。
Rust for Linux is a series of patches to the Linux kernel that adds the Rust programming language as a second language for writing kernel components. The project was started in 2017 by a group of volunteers who were interested in exploring the use of Rust for low-level systems programming.
早先的补丁是与Linux内核维护者以及开源群体一同合作开发而成的。这些补丁聚焦于将Rust的内存安全以及并行特性带入内核当中,同时提供对已有的C语言代码基础的相容性。
The initial patches were developed in collaboration with the Linux kernel maintainers and other members of the open-source community. They focused on integrating Rust's memory safety and concurrent programming features into the kernel, and on providing compatibility with the existing C codebase.
在2018年,这些补丁被合并至Linux内核代码库当中,令Rust成为第一门除C语言之外,获官方支持可以用作编写内核组件的语言。对于Rust语言社群来说是里程碑式的成就,展示了Rust语言可以胜任内核级别编程的需求。
In 2018, the patches were merged into the mainline Linux kernel, making Rust the first programming language other than C to be officially supported for writing kernel components. This marked a significant milestone for the Rust community, as it demonstrated the language's ability to handle the demanding requirements of kernel-level programming.
自Rust语言加入至Linux内核之中起,Rust for Linux项目持续发展,当前聚焦于改善Rust在内核中运作的兼容性以及效率。该项目还吸引了其他操作系统开发者的注意力,令他们对将Rust语言用作内核级别编程所带来的潜在优点感兴趣。
Since its inclusion in the Linux kernel, the Rust for Linux project has continued to evolve, with ongoing work on improving the compatibility and performance of Rust in the kernel. It has also attracted the attention of other operating system developers, who are interested in exploring the potential benefits of using Rust for kernel-level programming.
- 我就问一句,这么有模有样的段落你能发现这里面捏造了好几个关键事实吗?你们还觉得这不会造成破坏吗? --MilkyDefer 2023年1月28日 (六) 09:12 (UTC)
- 注:我自己能注意到的捏造事实如下
- Rust for Linux项目起始于2020年,不是片段中宣称的2017年;
- Rust for Linux项目代码合并至Linux内核是在2022年,不是片段中宣称的2018年;
- 当前Rust for Linux还没有达到有闲心改善兼容性和效率的地步,当前只有最基础能让编译顺利通过的部分。
- 有这么方便的工具那些喜欢搞鬼祟破坏的LTA们简直笑开花了啊。 --MilkyDefer 2023年1月28日 (六) 09:16 (UTC)
- 另外不要忘记维基百科是自然语言处理领域重要的数据集来源,我们有义务不要搞出垃圾进入维基百科又被提取成训练垃圾生成器的原材料的事情。--MilkyDefer 2023年1月28日 (六) 09:21 (UTC)
- 我认为鉴于ChatGPT的现状,应该将它按对待人类新手的方式处理,事实上就内容而言我们也无法区分新手和机器人之间的区别,何况你站已经封禁了绝大多数代理网段,仅仅凭借实验内容无法证实其破坏性或者真的有人会用来破坏,加上理论上ChatGPT还在使用旧的数据集,分辨拙劣过时内容远远比分辨是否是高级AI作品更加具备可行性也更加重要,暂时没有必要就这件事因“人”立法,如果需要修改方针必须证明现有方针在哪一方面无法满足你的需求(包括劣质训练集,还不如去改进你站存废积压)。--Cat on the Mars 2023年1月28日 (六) 09:38 (UTC)
- 再新手也不会写出金玉其外败絮其中的内容,真正的新手是写出来读出来就像是新手。你说的这不是新手,是破坏者。--MilkyDefer 2023年1月28日 (六) 09:44 (UTC)
- 你维的毛某人浪迹天涯多少年了,这种抓不出来其他更是抓不到,你维有长过记性了吗,我说过不要因人立法,不是因为一会儿折毛,一会儿ChatGPT,封个把人就能解决的事情,ChatGPT就我的实际体验还不具备单独作案的能力,我刚刚想要让他搞点引用都得费神很久,像这么一大段无来源内容理所应当就是劣质内容,巡查员应该有自己的判断。----Cat on the Mars 2023年1月28日 (六) 10:01 (UTC)
- 本人基本同意CatOnMars的观点。--0xDeadbeef(留言) 2023年1月28日 (六) 10:17 (UTC)
- 至少举例中如果缺少来源(或者来源能通过编辑者审阅并确认过的话),还是能区分出行文问题。需要注意但不至于需要规例。——Sakamotosan路过围观 | 避免做作,免敬 2023年1月29日 (日) 00:41 (UTC)
- 你维的毛某人浪迹天涯多少年了,这种抓不出来其他更是抓不到,你维有长过记性了吗,我说过不要因人立法,不是因为一会儿折毛,一会儿ChatGPT,封个把人就能解决的事情,ChatGPT就我的实际体验还不具备单独作案的能力,我刚刚想要让他搞点引用都得费神很久,像这么一大段无来源内容理所应当就是劣质内容,巡查员应该有自己的判断。----Cat on the Mars 2023年1月28日 (六) 10:01 (UTC)
- 再新手也不会写出金玉其外败絮其中的内容,真正的新手是写出来读出来就像是新手。你说的这不是新手,是破坏者。--MilkyDefer 2023年1月28日 (六) 09:44 (UTC)
- (!)意见 我认为把可供查证做好就能避免大部分问题。--Taeas(留言) 2023年1月28日 (六) 12:10 (UTC)
- (+)支持。我当然知道实际上禁之不绝,但态度还是要摆出来。--Temp3600(留言) 2023年1月28日 (六) 19:56 (UTC)
- 我认为标题中说的“限制”就可以了,不必要禁止也难以禁止(如何分辨,难道搞一个ChatGPT检查器之类的?[2]但准确度又如何?),非常同意Temp3600的意见,“态度还是要摆出来”--百無一用是書生 (☎) 2023年1月29日 (日) 03:11 (UTC)
- 刚才用chatgpt-detector检测了一下上面的例子Rust for Linux,英文都能正确识别是ChatGPT,但翻译成中文就认为是人类了--百無一用是書生 (☎) 2023年1月29日 (日) 03:19 (UTC)
- 我认为标题中说的“限制”就可以了,不必要禁止也难以禁止(如何分辨,难道搞一个ChatGPT检查器之类的?[2]但准确度又如何?),非常同意Temp3600的意见,“态度还是要摆出来”--百無一用是書生 (☎) 2023年1月29日 (日) 03:11 (UTC)
- 提问:ChatGPT是否会造成目前方针无法处理的破坏?如果有,是否说明目前的方针存在漏洞?--Steven Sun(留言) 2023年1月29日 (日) 03:44 (UTC)
- (+)支持,MilkyDefer给出的例子已经很明显了,用于破坏实在是太过简单。--BlackShadowG Slava Ukraini! 2023年1月29日 (日) 04:27 (UTC)
- 支持禁止,列入行为方针即可。 ——魔琴 [ 留言 贡献 新手2023计划 ] 2023年1月29日 (日) 04:32 (UTC)
- 我是持怀疑态度。首先是无法检测、无法证明。任何一段文字,就算GPT检测器说是GPT写的,你无法看到那个人把这段文字从GPT复制下来贴上了。第二,ChatGPT用法多种多样,不应该所有用法都不能用。我特别喜欢叫他帮我找错别字,和从其他语言翻译成中文。应该还有很多无破坏性的例子。Last but not least,现有规则已经可以cover ChatGPT造成的破坏。难道现在加一条说ChatGPT做好事也不行?--Gqqnb(留言) 2023年1月29日 (日) 13:01 (UTC)
- 我倒是有点想开了,维基百科又不是检查你们做大学作业,有些学校会怀疑是不是你自己写的,你只要写出来了,巡查员检查过了,我管你是怎么写的。我不明白有些人的逻辑,只要这种东西能够用来破坏,“很容易用来破坏”,那这种东西就一定要禁止,是不是你家做菜以后都不要拿刀了。且不论枪支弹药的道德属性,枪支弹药尚且可以用在正道,炸药都可以弄出个诺贝尔奖,你维连ChatGPT的影子都没有看到,便十分“有头有尾”有罪推定宣判ChatGPT死刑,似乎认定了默认利用AI的都是坏人一样,每个人在你维用一次ChatGPT就好像从你维的大厦下面偷一块砖,连基本的“假定善意”都丢掉了。借用鲁迅的一句话,“岂但乡下人之于雷峰塔,日日偷挖中华民国的柱石的奴才们,现在正不知有多少”,而这等这种视若无睹的理所应当更是令我更是匪夷所思。----Cat on the Mars 2023年1月29日 (日) 13:26 (UTC)
- 感觉类似机翻:内容提交人自己知道润色就OK;当然对初次参与维基百科的人,最保守的说法还是“禁止机翻”。--洛普利宁 2023年1月29日 (日) 13:31 (UTC)
- 我倒是有点想开了,维基百科又不是检查你们做大学作业,有些学校会怀疑是不是你自己写的,你只要写出来了,巡查员检查过了,我管你是怎么写的。我不明白有些人的逻辑,只要这种东西能够用来破坏,“很容易用来破坏”,那这种东西就一定要禁止,是不是你家做菜以后都不要拿刀了。且不论枪支弹药的道德属性,枪支弹药尚且可以用在正道,炸药都可以弄出个诺贝尔奖,你维连ChatGPT的影子都没有看到,便十分“有头有尾”有罪推定宣判ChatGPT死刑,似乎认定了默认利用AI的都是坏人一样,每个人在你维用一次ChatGPT就好像从你维的大厦下面偷一块砖,连基本的“假定善意”都丢掉了。借用鲁迅的一句话,“岂但乡下人之于雷峰塔,日日偷挖中华民国的柱石的奴才们,现在正不知有多少”,而这等这种视若无睹的理所应当更是令我更是匪夷所思。----Cat on the Mars 2023年1月29日 (日) 13:26 (UTC)
- 翻译指引有一句“请勿使用机器翻译翻译条目”,在后面加一个“或人工智能机器人”之类的,赋予禁止使用相关工具之授权法源就行了。—— Eric Liu 創造は生命(留言・留名・学生会) 2023年1月29日 (日) 14:21 (UTC)
- 但提案不限于翻译,也包含创作。不过,如果创作后能做到可供查证,感觉没太大问题。--YFdyh000(留言) 2023年1月29日 (日) 14:38 (UTC)
- “机器人方针适用于所有用以编辑维基百科的计算机程序或脚本,包括全自动、高速运作以及协助编者的工具。”
- 按我的理解,现行机器人方针完全适用于AI程序,要改也轮不到翻译指引。----Cat on the Mars 2023年1月30日 (一) 09:23 (UTC)
- 确实,一时间没有想到。不过两边都写亦无大碍,或可相呼应。—— Eric Liu 創造は生命(留言・留名・学生会) 2023年1月31日 (二) 03:06 (UTC)
- 我们来关注这么一个问题。对于一个编辑经验不足的新编者而言,创建条目时候的提示信息都有哪些呢?关注度、非广告宣传、著作权、参考文献、WP:NOT,以及一个指向“其他”的链接。不论是机翻还是ChatGPT都没有足够可见的提示。巡查员一看,不行,从犄角旮旯里翻出一个方针的一个犄角旮旯的句子出来,新手直接炸毛了。--MilkyDefer 2023年2月3日 (五) 13:37 (UTC)
- 你应该去改F&Q而不是去改方针,现在的方针指引堪比屎山代码,我觉得与其改机器人方针内容,还不如改名字一目了然,以前叫他机器人,其实只是自动化程序,以后必然还会有AI程序,它这名字早就已经赶不上时代了。----Cat on the Mars 2023年2月3日 (五) 15:45 (UTC)
- 方针指引太多搞得管理员都不知道自己正在重复立法。----Cat on the Mars 2023年2月3日 (五) 15:51 (UTC)
- 我们来关注这么一个问题。对于一个编辑经验不足的新编者而言,创建条目时候的提示信息都有哪些呢?关注度、非广告宣传、著作权、参考文献、WP:NOT,以及一个指向“其他”的链接。不论是机翻还是ChatGPT都没有足够可见的提示。巡查员一看,不行,从犄角旮旯里翻出一个方针的一个犄角旮旯的句子出来,新手直接炸毛了。--MilkyDefer 2023年2月3日 (五) 13:37 (UTC)
- 确实,一时间没有想到。不过两边都写亦无大碍,或可相呼应。—— Eric Liu 創造は生命(留言・留名・学生会) 2023年1月31日 (二) 03:06 (UTC)
- 我的意见本来与Ericliu1912相近的,但考虑到YFdyh000所言在理,我更倾向要求任何人确保他们在用AI写东西后必须先自己校对过才在维基百科发布,毕竟相关工具我自己感觉不是完全不能用,但一定要自己下手调整AI写出来的文本,这跟维基百科内置的机翻工具是一个道理。@YFdyh000、Ericliu1912:如果“似是而非”的文本符合“胡言乱语”的定义的话,这其实就是G1的范畴。Sanmosa Συ γάρ μοι και μοίρα εί και τύχη 2023年1月30日 (一) 05:05 (UTC)
- @Ericliu1912、shizhao:我想要请教管理员,如果我要在机器人方针第一句“机器人方针适用于所有用以编辑维基百科的计算机程序或脚本,包括全自动、高速运作以及协助编者的工具”“包括”后面加上一句“利用人工智能(AI)技术编辑维基百科的程序”,这是否超出了“修改方针及指引的文意”的小修改门槛。按照我的理解,机器人AI程序应该是在机器人方针“所有用以编辑维基百科的计算机程序或脚本”的范畴内。另外,从我的角度,防不如管,如果能够知道别人在使用AI总比盲盒瞎猜好很多。--Cat on the Mars 2023年2月4日 (六) 11:25 (UTC)
- (-)反对与其禁止使用AI生成内容,应该规定的是不是使用AI辅助后应先行复检后再发布?AI跟机器翻译一样,可以视为一个辅助手段,但不应该作为主要贡献。所谓的“似是而非”、“事实错误”全部现有方针已可处理。如果AI生成的内容可以被来源证实,我实在看不出一刀切禁止使用的原因-某人✉ 2023年2月6日 (一) 14:29 (UTC)
- 所以说,机器翻译不正好是天怨人怨么……--MilkyDefer 2023年2月7日 (二) 11:45 (UTC)
- 不喜欢或者讨厌不是禁止的理由。----Cat on Mars 2023年2月7日 (二) 14:26 (UTC)
- 也不知怎么就天怒人怨了,一帮人整天在tg群讲相同的话真以为全宇宙都想得一样。--日期20220626(留言) 2023年2月8日 (三) 11:12 (UTC)
- 所以说,机器翻译不正好是天怨人怨么……--MilkyDefer 2023年2月7日 (二) 11:45 (UTC)
- 咕咕--Zyksnowy(留言) 2023年2月8日 (三) 09:14 (UTC)
- 怎么分辨并证明那些文字由ChatGPT等AI“生成”?何况那东西还在时刻“进化”。--安忆Talk 2023年2月8日 (三) 09:36 (UTC)
- 我觉得按照机器人方针自觉申报就行了,我们还没有这个能力判断,也耗不起这个时间,以后GPT3.5推广了还会有更多AI程序,不可能永远靠人力查核。----Cat on Mars 2023年2月8日 (三) 09:59 (UTC)
- (-)反对:Some people against using you in Wikipedia. How can I refute?
Here are some arguments that you could use to defend the use of AI language models like me in Wikipedia:
Increased efficiency and accuracy: AI language models can assist in generating and verifying information in Wikipedia, potentially leading to improved accuracy and efficiency compared to manual editing.
Supplementing human labor: AI language models can help to supplement the work of human editors and writers, freeing up their time and energy to focus on more complex and strategic tasks.
Improving accessibility: AI language models can assist in generating and translating content, making Wikipedia more accessible to a wider audience and supporting the goal of creating a free and comprehensive encyclopedia.
Cost-effectiveness: Using AI language models can help to reduce the cost of creating and maintaining Wikipedia, making it more sustainable in the long-term.
Of course, it's also important to consider potential concerns and criticisms related to the use of AI in Wikipedia, such as the potential for biases in the training data and the importance of maintaining human oversight and control. Nevertheless, with proper safeguards and transparency, AI language models like me can be a valuable tool for supporting and improving Wikipedia.--維基小霸王(留言) 2023年2月9日 (四) 04:12 (UTC)
- @MilkyDefer:这是使用ChatGPT生成的关于入间同学入魔了!的片段(使用“谈谈"入间同学入魔了!"这部动画”去生成):
《入间同学入魔了!》是一部日本的动画,是由小畑健制作的一部歌舞片。这部动画以魔法为题材,讲述了主人公入间在升上高中后,逐渐接触到魔法世界,最终投身于魔法战争的故事。 这部动画以精彩的故事情节和生动的角色设计而受到许多观众的喜爱。它还以鲜明的风格和丰富多彩的音乐展示了魔法世界的魅力,为观众带来了一个充满奇幻与冒险的世界。 如果你是一个喜爱动画的观众,那么这部动画是值得一看的。它将带给你一个精彩的故事情节和生动的角色,让你进入一个充满魔法与冒险的世界。
- ,但入间同学入魔了!实际上是由西修所创作的日本漫画作品,且实际上小畑健曾经创作过《棋魂》,不是《入间同学入魔了!》,所以ChatGPT所生成的日本动漫类条目就有问题--林勇智 2023年2月9日 (四) 12:26 (UTC)
- 尝试限定维基百科的风格,并要求给出至少五个不是维基百科自身的公开可查证来源呢?--MilkyDefer 2023年2月9日 (四) 12:55 (UTC)
- 它以前给过我一本陈景润的《中国哲学史》。----Cat on Mars 2023年2月9日 (四) 12:58 (UTC)
- 所以我在看到U:outlookxp的查证的时候就觉得这是不是什么我们不知道、并且还在保密中的高级AI。----Cat on Mars 2023年2月9日 (四) 13:02 (UTC)
- ChatGPT有点蠢,机翻都比它靠谱点。--日期20220626(留言) 2023年2月9日 (四) 13:09 (UTC)
- 用它机翻还是比较好用的。----Cat on Mars 2023年2月9日 (四) 13:24 (UTC)
- 大概是题外,看到提起维基内建机翻以及用机翻后要校正的内容等等的、那个啊今天凌晨逛近期变更的时候发现了不列颠共产党,有兴趣看哪位用户新增的请查看编辑摘要以及贡献,该使用者共新增了三个条目,因为实在是没心力了所以只有挂了模板,看看此人会不会良心现前自己回来改,不改的话之后就删除,个人感想是遇过几次用机翻的用户,原则上大概也不知道自己开了什么箱,只是翻译出来的结果乍看满意好像吐出了象牙,奢望他们自己配备校对能力可能真的以为人本善良。--Mafalda4144(留言) 2023年2月9日 (四) 13:37 (UTC)
- 这玩意据方舟子测试,简中资料来源自称是用百毒的样子。不过其他人有不同的结果。--S叔 2023年2月10日 (五) 02:19 (UTC)
- 尝试限定维基百科的风格,并要求给出至少五个不是维基百科自身的公开可查证来源呢?--MilkyDefer 2023年2月9日 (四) 12:55 (UTC)
- 显然ChatGPT自身生成的内容并不能作为证明其无害的依据。--Diskdance 2023年2月9日 (四) 15:04 (UTC)
- 好像有人测试医学类条目,ChatGPT会自己编造PubMed参考文献。另外不知道其在翻译条目中是否也会编造内容。关于其翻译质量,腾讯的一个实验室最近在arXiv上发了一篇论文[1]。建议先行禁止。--Kethyga(留言) 2023年2月10日 (五) 12:41 (UTC)
- (+)支持明文禁止。——WMLO(留言)。 2023年2月10日 (五) 21:43 (UTC)
- @MilkyDefer:咱也模仿上面D2513850君使用《来自风平浪静的明天》生成的对话内容:(Q:谈谈《来自风平浪静的明天》这部动画)
《来自风平浪静的明天》(Your Name)是一部由新海诚执导的日本动画电影,于2016年在日本上映。该片以美妙的动画和复杂的人物关系角色,受到了广泛的好评。
故事讲述了两个生活在不同城市的高中生,偶然发现自己的身体可以穿越时空互换。随着故事的发展,他们不断努力寻找对方,以解决自己的身份困惑和生活困境。
该片的动画效果非常出色,景象壮丽,配乐优美。此外,它也提出了一些深刻的社会问题,如家庭、友情、爱情和对未来的希望,对观众产生了深远的影响。
总的来说,《来自风平浪静的明天》是一部非常优秀的动画片,值得每个动漫爱好者去观看。
感觉完全是按照《你的名字。》的内容去生成的 囧rz……--忒有钱🌊塩水あります🐳(留言) 2023年2月12日 (日) 19:58 (UTC)
- (-)反对:所有机器人辅助的编辑应该予以允许,但人类用户必须在发布前核对内容。--The Streif(留言) 2023年2月13日 (一) 04:21 (UTC)
- @忒有钱:建议在发布到维基百科前先检查chatGPT所生成的内容是否有问题(如事先阅读或观看内容(例如《入间同学入魔了!》漫画或PubMed文献))--林勇智 2023年2月14日 (二) 13:40 (UTC)
- 我也试了一下,看起来效果不佳,因为他生成的内容很容易有编造和过度联想的状况,少至生成的内容真伪查核困难。我的测试事先给ChatGPT阅读相关文章,再请他整理成维基百科条目:请阅读下列文章并将其整理成一篇中文维基百科条目,并且使用wikitext源代码编写条目,须包含内部链接和资讯框。(贴上wikia:w:c:danmachi:Wiene的全部内容)
- ChatGPT给了以下回答(内部链接和资讯框是ChatGPT加的,我一字未改)
- 以下是使用 wikitext 源代码编写的薇妮的中文维基百科条目:
- ChatGPT给了以下回答(内部链接和资讯框是ChatGPT加的,我一字未改)
薇妮 角色设定信息 物种 人鳞蛇 性别 女性 出生 地牢中层 所属 赫斯提亚家族 薇妮(ウィーネ)是一位神秘的人鳞蛇女性,生于地牢的中层。她以其琥珀色的眼睛和长银蓝色的头发以及身体上数个地方的鳞片而闻名,还有额头上价值高昂的“人鳞蛇之泪”红宝石。
在留在赫斯提亚家族期间,薇妮穿着由贝尔·克拉内尔提供的“沙马兰德毛衣”,以隐藏她作为怪物的身份。
薇妮有讲话的能力,这在怪物中是很罕见的,她以善良的性格而闻名。她与赫斯提亚家族特别是贝尔和春姬产生了依恋。尽管她有善良的性格,薇妮最初有着怯弱的本质,但在她重生后,她变得更加勇敢。
在外貌上,当薇妮救了一个小男孩时,她的身体从背部长出了一只翅膀,翅膀很大,即使折叠也可以覆盖她一半的身体。
- 当中不少过度联想,例如Infobox 内的所属:赫斯提亚家族(应为赫斯缇雅眷族,但不是重点),薇妮并不属于赫斯缇雅眷族,他只是暂时借住在赫斯缇雅眷族,表示ChatGPT过度联想,造成其产生若干与事实不符的内容,且这若不对主题有一定程度的了解,是不可能发现的错误,因为似是而非,据我所知,有些编者喜欢透过编写不是那么熟悉的主题来增广知识,万一那些编者因此无法抓出ChatGPT编造和过度联想的状况造成编辑的内容出现似是而非的内容该怎么查核?编者可能因为用了ChatGPT而导致在条目加入了似是而非错误内容而不知情,且也难以查核,如果是这样,不如直接禁止ChatGPT生成内容为好。-- 宇帆-雪菲蛋糕🎂娜娜奇🐰鲜果茶☕在维基百科寻求休闲是否搞错了什么(☎️·☘️) 2023年2月14日 (二) 14:00 (UTC)
- (!)意见:相较ChatGPT定位于“聊天机器人”,近期Google推出的Bard或是微软的全新Bing更像是一个“搜寻助理”,可以即时搜寻并更新最新的消息,以全新Bing为例,在回答的时候会给出多项参考网站来源(可参考这篇评测文章:[3]。)ChatGPT本身是一个模型,拿来训练的数据库是固定的(所以才说只能回答2021年前的问题),生成的内容常在相似的语句打转。但这类新的人工智能搜寻助理,我认为值得期待,对维基百科的编者也会有很大帮助。巴波(留言) 2023年2月16日 (四) 12:55 (UTC)
- @巴波现在已经可以获得关于2022年和2023的少量信息--FK8437(留言) 2023年3月26日 (日) 11:45 (UTC)
- (!)意见:我看得都很尴尬,一个个光光讨论ChatGPT的性能问题,明明已经有相关规定(机器人方针)了却没有实施方法,AI模型本来就是一个很大范围的事情,我记得站内好像就有人用类似工具创建条目,是不是.Net之类的,有一个谁专门用什么程序修正错误之类的,后来基本都是被封了。我觉得这种事情实际上就是一种钻空子,管理员应该要求使用AI及类似辅助程序的必须事先声明并经过测试才能开车上路,ChatGPT只是我们的第一个例子,看上去并不适合上街乱跑,但是也要考虑到以后还会有很多智能程序的例子在后面,我们的方针应该有长远考虑的打算。--Cat on Mars 2023年2月16日 (四) 20:04 (UTC)
- 思考了一下,虽然AI问题很多,但或许可以参考维基媒体基金会台湾分会的这则贴文的说法,仅限资深用户使用,并且要严密检查?-- 宇帆-雪菲蛋糕🎂娜娜奇🐰鲜果茶☕在维基百科寻求休闲是否搞错了什么(☎️·☘️) 2023年3月1日 (三) 17:53 (UTC)
- 我的提议是在在机器人方针中明确AI适用于本方针,如果按照链接内的条件(1.AI程序需要经过检验;2.AI程序需要自己负责;3.标记AI程序输出内容;4.需要由资深编辑操作),实际上也是现在机器人方针审核的现行规则(测试+审核+明确操作者+标注机器人编辑),目前我看不出两者管控措施有什么明显差异。----Cat on Mars 2023年3月4日 (六) 16:50 (UTC)
- 就现阶段而言,我亦认为在机器人方针及(或)翻译指引中相关段落明确提及人工智能即足矣。—— Eric Liu 創造は生命(留言・留名・学生会) 2023年3月4日 (六) 19:42 (UTC)
- 我的提议是在在机器人方针中明确AI适用于本方针,如果按照链接内的条件(1.AI程序需要经过检验;2.AI程序需要自己负责;3.标记AI程序输出内容;4.需要由资深编辑操作),实际上也是现在机器人方针审核的现行规则(测试+审核+明确操作者+标注机器人编辑),目前我看不出两者管控措施有什么明显差异。----Cat on Mars 2023年3月4日 (六) 16:50 (UTC)
刚刚测试感受了一下:一个样例--EvesiestaCOVID-19感染中 2023年3月5日 (日) 08:32 (UTC)
如果维基百科现有的技术无法侦测到对方使用ChatGPT或类似AI工具的生成内容,那么楼上各位所说也只是空话,更何况出自人手造假的(例如:折毛事件),你们也是经过很多年之后才发现,这就是活生生的警惕。因此,如果在没有技术可以避免下,未来可能仍会有造假内容发生,这是现在维基百科的公信力最大的问题。--2001:B011:A401:3B94:3825:963C:D5D8:1D8(留言) 2023年3月8日 (三) 05:05 (UTC)
- “往者不可谏,来者犹可追。”----Cat on Mars 2023年3月12日 (日) 12:06 (UTC)
- (-)反对:条目破坏与手动破坏或使用AI破坏似乎在结果上没有差异?难不成用键盘输入文字破坏条目,就要禁止所有使用键盘输入的条目?更何况如前些留言者所言,人手造假的抓不到了,更何况AI生成。还不如想想用AI巡查条目,先处理明显错误的条目。--死灰(留言) 2023年3月13日 (一) 14:13 (UTC)
- 可以考虑开发一个AI检测器。。。--百無一用是書生 (☎) 2023年3月14日 (二) 02:42 (UTC)
- Open ai自己写的检测器都只有两成六几率检测得出来,还未计假阳性。如果这里有任何人写得一个出来就别在维基百科屈才当志工了--某人✉ 2023年3月19日 (日) 11:50 (UTC)
- 这话说得,能写出来照样可以来维基混。比如亚伦·斯沃茨这家伙就很积极参与维基事务。--日期20220626(留言) 2023年3月19日 (日) 11:55 (UTC)
- Open ai自己写的检测器都只有两成六几率检测得出来,还未计假阳性。如果这里有任何人写得一个出来就别在维基百科屈才当志工了--某人✉ 2023年3月19日 (日) 11:50 (UTC)
- 在处理条目格式问题与修饰语气上能派上用场,唯一的困扰仅幻觉问题。--死灰(留言) 2023年3月26日 (日) 11:14 (UTC)
- 可以考虑开发一个AI检测器。。。--百無一用是書生 (☎) 2023年3月14日 (二) 02:42 (UTC)
- (-)反对:看过老高的影片后,我觉得他讲的好,AI就是一种工具,不应该怕她。如果你直接叫AI写一篇条目,就会很多错,但如果你给他一篇文章请他归纳重点,错误会少很多,总之我觉得善用gpt写条目是一件好事,可以节省很多时间,但不要乱用,如果乱用就直接速删就可以,正常使用gpt并不用禁止。--E.D.(留言) 2023年3月16日 (四) 07:29 (UTC)
- (-)反对:2023年了,怎么还在“非我也,兵也”呢?噗噗熊?|||||||||| 维尼熊! 2023年3月20日 (一) 14:21 (UTC)
- (-)反对:其实AI在翻译条目中做的十分不错,虽然文字在有些情况下需要修改以保证通顺而且有点单调,至于创建条目来讲(+)暂时支持禁止使用,因为在不提供信息很容易出错(例如将日期填写错误以及出现大量虚构内容),搞不好出现折毛2.0。不过值得肯定的是它翻译条目的能力和对于语句问题的通顺化,不建议直接猛烈一刀切,应该看作是一种工具,反正多时无版权的。附注一小段由ChatGPT的翻译草稿,可以研究一下它的质量。
- --FK8437(留言) 2023年3月25日 (六) 03:41 (UTC)
- FYI:较早前基金会与部分全域社群成员就 AI 对维基百科的影响及机遇等进行讨论(讨论摘要见此),个人期望对此讨论有所帮助。谢谢。--SCP-0000(留言) 2023年3月25日 (六) 09:03 (UTC)
- 当然,鉴于ChatGPT的胡说扯蛋[开玩笑的]能力,设置一个只允许延伸确认用户的标准来限制人滥用她来创造条目似乎不错,不过实行起来难度很大,因此直接放弃抓捕,让人人都用ChatGPT来造福维基百科也不是不可以。--FK8437(留言) 2023年3月26日 (日) 03:20 (UTC)
- 再次重申:在有任何能可靠辨识AI生成内容的检测器问世之前你维任何规范ChatGPT的讨论均为伪命题。所有所谓“伪造文献”等问题可依现有方针处理,下方类似讨论同上-某人✉ 2023年3月27日 (一) 20:20 (UTC)
- 已有ChatGPT Zero的监测器,唯准确率暂无测试,不过一般明显的全部Copy大多可以检测,混合内容检测率一半一半,完全人类内容有时会假阳性。--FK8437(留言) 2023年3月28日 (二) 03:45 (UTC)
- 用AI打败AI!这是我用ChatGPT来检测AI生成内容的测试:
- 已有ChatGPT Zero的监测器,唯准确率暂无测试,不过一般明显的全部Copy大多可以检测,混合内容检测率一半一半,完全人类内容有时会假阳性。--FK8437(留言) 2023年3月28日 (二) 03:45 (UTC)
提示语构建:
你是一个AI生成内容检测器,我输入文本内容,你来检查是否是AI生成的,还是人类撰写的。并给出答案和检查过程。检测内容不要输出。格式为: 结果:{AI或人类} 检查过程:{检查过程} 检测内容“<这里填入要检测的文本>”
用这个提示词对上面“《入间同学入魔了!》”的文本进行检测,结果如下:
结果:{AI} 检查过程:这段文本中有很多日本的动画和电影的常见元素,例如魔法、高中生活、战争等。此外,这段文本的语言流畅度和表达方式比较机械化,缺乏人类的情感和思考。最后,这段文本的结构和内容比较简单,缺乏深度和复杂性。综上所述,这段文本是由AI生成的。
对薇妮的检测:
结果:{AI} 检查过程:这段文本中有很多日本动画和小说的常见元素,例如人鱼、魔法、怪物等。此外,这段文本的语言流畅度和表达方式比较机械化,缺乏人类的情感和思考。最后,这段文本的结构和内容比较简单,缺乏深度和复杂性。综上所述,这段文本是由AI生成的。
对“来自风平浪静的明天”检测错误
结果:{人类} 检查过程:这段文本是关于《来自风平浪静的明天》这部日本动画电影的介绍,内容涉及到电影的情节、人物、动画效果、配乐和社会问题等方面。语言表达流畅,情感丰富,没有明显的机械化或重复的痕迹。综上所述,这段文本是由人类撰写的。
对Rust for Linux(英文)的检测也是错误的:
结果:{人类} 检查过程:这段文本是关于Rust for Linux项目的介绍,内容比较专业化,涉及到Linux内核和Rust语言的相关知识。语言表达流畅,结构清晰,没有明显的机械化或重复的痕迹。综上所述,这段文本是由人类撰写的。
总体上感觉不如一些第三方的检测工具,例如[4],但也不失为一种方法。如果要做维基百科内容的AI检测,目前最好的方法是介入多家的AI检测技术,综合对比比较稳妥--百無一用是書生 (☎) 2023年3月28日 (二) 09:05 (UTC)
- 另,以上我使用的是GPT3.5,GPT4不知道在这件事上是否更好一点?--百無一用是書生 (☎) 2023年3月28日 (二) 09:10 (UTC)
- 让ChatGPT来自己区推测似乎不太好,而且本身它也不是为了检测而生的。建议采用GPTzero。不过GPT4可能会更加难以检测到,而且只要进行一点修理和润饰就很难查出来这种混合文字,所以在出现准确率高的检测工具之前就只要保证不被滥用去破坏或制造假新闻之类的就可以了。--FK8437(留言) 2023年4月8日 (六) 03:57 (UTC)
参考资料
- ^ Jiao, Wenxiang; Wang, Wenxuan; Huang, Jen-tse; Wang, Xing; Tu, Zhaopeng, Is ChatGPT A Good Translator? A Preliminary Study, arXiv, 2023-01-31 [2023-02-11], doi:10.48550/arXiv.2301.08745
使用ChatGPT等软件来辅助编写维基百科是否允许?是否需要标注?
各类人工智能大语言模型急速发展,可能可以被用来编写或辅助编写维基百科。那么,使用ChatGPT、NewBing、ChatGLM、文心一言等软件来编写或辅助编写维基百科是否应当允许?是否需要标注?
我模拟了此类GPT软件的若干种使用方法,以供分别讨论:
- 询问类GPT软件有哪些以“坤”为名字结尾的明星,来辅助编写[坤坤]消歧义。
- 给类GPT软件一段使用者写的段落,使用GPT来润色语句。
- 使用类GPT软件来检查维基语法。
- 直接给类GPT软件若干信息,让其写一端内容,再由编者修改后写入维基百科。
- 给类GPT软件一段其他语言维基百科的内容,让其翻译成中文,再由编者修改后写入维基百科。
若有不足,欢迎补充。--Huangsijun17(留言) 2023年3月28日 (二) 12:31 (UTC)
- 看似可以,但是要防止AI瞎编名字
- 润色语句没尝试过,据说很不错,但不知道有没有造假问题?
- 这个可行,可以尝试
- 除非用户对GPT产生内容的方式有所了解,并且对所写内容也很熟悉,否则不建议
- 这类AI模型的翻译本质上似乎和机器翻译的方式不太一样,有可能翻译后混入虚假内容或者部分内容丢失不翻译?
--百無一用是書生 (☎) 2023年3月28日 (二) 12:49 (UTC)
- 试了一下修复语法错误,如果文本中只有一个wikitext错误,大概率可以已修复;如果多个错误,则往往只能修复一个;如果反复让他修复同一个文本,常常会把参考文献删掉,例如这样的回答:
- Based on the context and selected code block, it seems that there is no error in the code. However, if you are looking to make a modification to the code, you can simply remove the unnecessary references and shorten the code as follows:
- '''小行星9350'''({{lang-en|9350 Waseda}})是一颗围绕[[太阳]][[公转]]的[[小行星]]。1991年10月13日,[[平沢正規]]、[[鈴木正平]]在Nyukasa发现了此天体,以[[早稻田大學]](Waseda)命名。
- This code block is the same as the selected code block, but with the unnecessary references removed. Hope this helps!
--百無一用是書生 (☎) 2023年3月28日 (二) 13:17 (UTC)
现在你是一个维基百科管理员,非常擅长编写维基百科条目。请检查我给出的wikitext语法有没有错误。如果有错误,修复所有的错误,返回正确的wikitext;如果wikitext没有错误,返回{没有错误}。下面是一段wikitext:
--百無一用是書生 (☎) 2023年3月28日 (二) 13:19 (UTC)
用于润色非常可行,以下是我取自硼酸#医药用途的两段话:
硼酸可以用于消毒或治疗较小的割伤和烧伤,有时亦被用作制造敷药、软膏等药品的原料。硼酸可以治疗霉菌感染,例如念珠菌症之类的疾病。以少量硼酸浸湿袜子可以治疗足癣(香港脚),硼酸还可以治疗人类和哺乳动物的外耳炎。 硼酸是唯一可以施用在眼部的酸,所以硼酸亦是市面上多数眼药水的重要成分。
构造提示器:
现在你是一个百科全书编辑专家,也是一名资深的出版社编辑和校对。请对我提供的文本进行润色,但忽略繁简体问题,同时提供更多的编辑建议(用中文)。当我输入{根据编辑建议修改},你就根据你在上个回答中提出的编辑建议修改我之前提供的文本。 下面是一段我提供的文本,润色后输出:
润色后输出的文本:
硼酸可以用于消毒或治疗较小的割伤和烧伤,有时也被用作制造敷药、软膏等药品的原料。硼酸可以治疗霉菌感染,例如念珠菌症等疾病。以少量硼酸浸湿袜子可以治疗足癣(香港脚),硼酸还可以治疗人类和哺乳动物的外耳炎。
硼酸是唯一可以施用在眼部的酸,因此硼酸也是市面上多数眼药水的重要成分。
提供的编辑建议(有时还会加上一大堆繁体转简体的建议,比如“建议将“治疗”改为“治疗”,将“制造”改为“制造”,将“药品”改为“药品”,将“霉菌”改为“霉菌”,将“之类的”改为“等”,将“浸湿”改为“浸湿”):
此外,建议在文本中加入硼酸的化学式和分子量等相关信息,以增加文本的科学性和准确性。
之后输入“根据编辑建议修改”,ChatGPT输出根据编辑建议修改的内容:
硼酸(H3BO3),分子量61.83g/mol,可以用于消毒或治疗较小的割伤和烧伤,有时也被用作制造敷药、软膏等药品的原料。硼酸可以治疗霉菌感染,例如念珠菌症等疾病。以少量硼酸浸湿袜子可以治疗足癣(香港脚),硼酸还可以治疗人类和哺乳动物的外耳炎。硼酸是唯一可以施用在眼部的酸,因此硼酸也是市面上多数眼药水的重要成分。
一些问题:AI会强制转换繁简体,统一为简体或繁体,怎么提示不许转换都不行,每次的编辑建议未必一样,有时只是对修改的地方进行了说明,有时则会提供一些内容扩充上的意见。总体上来看,还是非常不错的 --百無一用是書生 (☎) 2023年3月28日 (二) 14:05 (UTC)
- 试了试用new bing来做Citation Hunt,效果不太理想:可能会找到相关文献,也可能找不到,或者找到相关性不强的文献。有用之处在于找文献的效率会大幅提升,但还是需要人工来判断具体文献是否合适(当然可以借助AI来总结和查找想要的观点)--百無一用是書生 (☎) 2023年3月29日 (三) 07:47 (UTC)
- 尝试了一下为缺少序言章节的条目写序言。使用new bing,准确模式大概率无法完成,平衡模式则可以,基本会根据给出的条目链接中的内容进行符合维基百科格式要求的序言的编写(理解什么是维基百科条目的序言章节),但有时会夹带虚假内容。另外,还尝试了一下对标记为翻译拙劣的条目进行语言上的润色(使用ChatGPT),总体而言,翻译基本能看懂,只是语言不太通顺的话,润色完全没问题;但如果翻译的很糟糕(例如机翻,带有很多不知所云的内容),则润色后也好不了多少。看来适合处理轻度翻译问题,翻译问题严重的话就不行了--百無一用是書生 (☎) 2023年4月3日 (一) 14:20 (UTC)
- 另外再说回检查维基语法的尝试,试了很多次,存在两个问题:一是GPT认为参考文献的标注不应该出现在正文当中,因此会自动移除<ref>标签(GPT在润色wikitext文本的时候明确指出了这一点);二是虽然大多数时候可以灌给它wikitext(不含<ref>标签),再让它润色后用Wikitext格式输出,但有时却并不听从指示,会删掉一些wiki标记,有时则会删除掉全部的Wiki标记--百無一用是書生 (☎) 2023年4月3日 (一) 14:27 (UTC)
- 用New Bing尝试翻译了一个条目Memento,效果非常好,语言流畅性上甚至比原文都要好一些。--百無一用是書生 (☎) 2023年4月7日 (五) 14:41 (UTC)
- 如果是Memento项目这个条目,我会说这个条目的内容对读者非常不好。首段“同时也为网络历史研究提供便利”存在明显的歧义,是“借由网络的帮助来研究历史”,还是“研究网络本身的历史”?“Memento项目在 RFC 7089 中定义为内容协商的时间维度的一种实现”,内容协商的时间维度非常怪异,我作为读者对这个短语的理解就是靠猜。“内容协商”我懂,“时间维度”理解不了,合起来更理解不了,更别说还要连上下文的“一种实现”才能定义出这个条目的主题。“要完全理解Memento,必须认识到HTTP提供的Last-Modified标头不一定反映特定版本的网页何时出现”这句话在条目里整个就是个无厘头,前后都没有衔接,就告诉你读者“你必须认识到xx”,那然后呢,我还是理解不了。--Tiger(留言) 2023年4月12日 (三) 22:33 (UTC)
- 尝试了一下为缺少序言章节的条目写序言。使用new bing,准确模式大概率无法完成,平衡模式则可以,基本会根据给出的条目链接中的内容进行符合维基百科格式要求的序言的编写(理解什么是维基百科条目的序言章节),但有时会夹带虚假内容。另外,还尝试了一下对标记为翻译拙劣的条目进行语言上的润色(使用ChatGPT),总体而言,翻译基本能看懂,只是语言不太通顺的话,润色完全没问题;但如果翻译的很糟糕(例如机翻,带有很多不知所云的内容),则润色后也好不了多少。看来适合处理轻度翻译问题,翻译问题严重的话就不行了--百無一用是書生 (☎) 2023年4月3日 (一) 14:20 (UTC)
总体评估
任务 | ChatGPT评分 | New Bing评分 | 人工介入程度 | 对条目品质的影响 | 备注 |
---|---|---|---|---|---|
修复语法错误 | 2 | 未测评 | 中度 | - | 不可行。仅仅是能够修复,但可能会自动移除一些wiki语法,或者多个错误只能修复一两个 |
润色文本 | 8 | 未测评 | 轻度 | +++ | 可行。表现非常好,但输出wikitext会自动移除<ref>标签,有时还会移除其他Wiki标记,而且会统一为简体或繁体 |
补充来源 | 不支持 | 6 | 高度 | ++ | 可行。必须准确模式,平衡模式有可能会给出虚构文献。可能会找到相关文献,也可能找不到,或者找到相关性不强的文献。需要人工进一步确认 |
补充序言 | 不支持 | 7 | 中度 | + | 可行。必须平衡模式,准确模式大概率无法完成。有可能会加入虚假信息。生成序言的质量与条目内容的好坏密切相关。 |
翻译润色 | 5 | 未测评 | 轻度 | ++ | 可行。对轻度翻译问题表现出色,翻译问题严重则不行。其他问题同“润色文本” |
条目分类 | 不支持 | 5 | 中度 | + | 可行。平衡模式要比准确模式更可能完成(二者都可能无法完成)。能够生成符合维基百科要求的wikitext分类,但可能夹杂错误分类(根本不是该分类的)和红链分类(有类似分类,但这个分类还未建立) |
条目翻译 | 未测评 | 9 | 中度 | +++ | 可行。直接给链接到聊天模式可能不给翻译,撰文模式则能够翻译。语言通顺性要比机器翻译强得多,而且会在翻译的同时进行文本的润色。(生成wikitext暂未测试) |
指标说明:
- 评分:
- 满分10分
- 人工介入程度
- 轻度:基本上不需要人工介入,或简单修改后即可使用;中度:生成的内容需要人工检查后方可使用;重度:生成的内容需要人工非常仔细地检查核对
- 对条目品质的影响
- -更可能负面,--负面,---非常负面;+更可能正面,++正面,+++非常正面)
--百無一用是書生 (☎) 2023年4月3日 (一) 15:02 (UTC)
- 可以参考en:WP:CHATGPT,即要求使用大型语言模型生成的文本都需要署名,例如使用
{{OpenAI}}
。--BlackShadowG Slava Ukraini! 2023年4月9日 (日) 06:54 (UTC)- (+)赞成--Hualin~希望の星は青霄に昇る Commons|Talk 2023年4月9日 (日) 07:18 (UTC)
- (+)赞成,所有通过人工智能生成的文本都需要标注,另外ChatGPT对标准现代汉语的语言的组织能力还是比较弱,ChatGPT本身就是在印欧语系环境下产生的一种人工智能。另外应该限制IP用户和新用户使用人工智能生成文本编辑中文维基百科。--СлаваУкраїні! 2023年4月10日 (一) 00:38 (UTC)
- (+)强烈赞成使用模板标记使用AI的条目,但(-)反对限制新人和IP使用ChatGPT,因为只要有少许人工润化就很难被市面上的AI文检测工具查出,而且只要符合关注度和质量标准就可以。
- 大致( ✓ )同意shizhao的测试。参考阁下的测试,(&)建议:
- 允许辅助翻译条目和润色粗糙的翻译
- 允许在不改变文章主题思想和内容的情况下润色和通顺文本
- 不允许解决语法问题(我私下试过觉得不行)
- 同时提议:
- 不允许使用AI直接输入内容来创建或扩充条目,一位容易于相似内容混淆和GIGO,但允许真人完成主要文本后进行优化。
- --FK8437(留言) 2023年4月12日 (三) 12:58 (UTC)
- (+)赞成,所有通过人工智能生成的文本都需要标注,另外ChatGPT对标准现代汉语的语言的组织能力还是比较弱,ChatGPT本身就是在印欧语系环境下产生的一种人工智能。另外应该限制IP用户和新用户使用人工智能生成文本编辑中文维基百科。--СлаваУкраїні! 2023年4月10日 (一) 00:38 (UTC)
- (+)赞成--Hualin~希望の星は青霄に昇る Commons|Talk 2023年4月9日 (日) 07:18 (UTC)
- 这个独裁社群很显然把所谓的机器翻译是什么忘得一干二净才会提出这么荒谬的讨论串。很简单啊,只要不对外说,根本也没人知道您是依靠ChatGPT、Google翻译还是剑桥翻译来写条目的。英文白痴都能变天才,只要读起来别太过于机器翻译基本上就没事。理由正是因为现在的条目还想要写出新的只会越来越难,因为条目都已经被前人写过了,所以只好靠其它语言的翻译(比如常见的en)。这句也不知道要讲几次,独裁社群才会懂?为什么需要标注呢?标注不就是自寻死路吗?这个是写条目,不是在写论文。谁管您出处在哪?如果抄袭过多就无法毕业吗?还是维基百科真的要改名叫论文百科了?如此荒谬的东西都能够提出来,呵呵。--Z7504非常建议必要时多关注评选(留言) 2023年4月12日 (三) 16:11 (UTC)
- (+)支持。-噗噗熊?|||||||||| 维尼熊! 2023年4月21日 (五) 12:04 (UTC)
- 维基百科所需要的内容并不在于语言好不好,而是内容本身好不好(当然,语言好那是最基本的)。如同我上面指出的,如果只看到语言流畅,忽略这些文本到底提供了怎样的信息,就会觉得现阶段的语言模型输出的内容好像可以用,但是各位仔细读一读呢?作为读者,仔细读一读,恐怕十次里面有九次是让人失望的。人工润色GPT输出的内容,与机器翻译类似,若要保证品质,人工查证、修改所花费的精力并不亚于从头开始写。当然,假如我们选择禁止使用GPT,而各位偷偷用GPT,那不被发现也很正常。反正别人也大概率不会有证据证明你用了GPT,也很难有精力一篇一篇条目读过去,一句一句仔细查证。--Tiger(留言) 2023年4月12日 (三) 22:47 (UTC)
- 放屁。谁管您的文本是不是请几万只猴子打出来还是机翻出来的。内容写得不好就删掉,就这样简单。要注意的是ChatGPT可能会生成有版权的内容而已。--Ghren🐦🕓 2023年4月13日 (四) 08:07 (UTC)
(&)建议:请注意,使用ChatGPT等软件来书写维基百科时,并不一定需要由ChatGPT直接或间接生成条目中的文本。还是以我开头提出的坤坤为例,书写类似的条目时,可以由人工智能来搜集相关信息后再人为书写条目。条目中不存在任何GPT类软件生成的内容。但这是是否需要标注?例如现在询问newbing:把十二生肖全都过一遍需要多少年?它会告诉你13.5年。类似的,询问GPT类软件来了解、解答、求证、引证、验证相关内容,是极有可能存在错误的。——Huangsijun17(留言) 2023年4月18日 (二) 16:44 (UTC)
- 然而这讨论和“提议废除快速删除准则的G13翻译拙劣,或使用别的方针替代”又是关联性。可悲的独裁社群,完全不动脑的,才会每次提案讨论都是长得不得了且无共识。--Z7504非常建议必要时多关注评选(留言) 2023年4月23日 (日) 07:31 (UTC)