跳至內容

維基百科討論:機械人方針/存檔二

頁面內容不支援其他語言。
維基百科,自由的百科全書

提議限制在維基百科使用ChatGPT及類似工具

最近幾個月爆火的ChatGPT可以按照人類的提示生成文本,並且能根據人類的意見進行修改。但其生成的文本常常似是而非,看上去沒有問題而實際上卻含有事實錯誤,因此如果在條目中大量使用,可能會具有非常惡劣的影響。

StackOverflow已經禁止使用ChatGPT生成的內容,因此,中文維基百科社群是否應該跟進?

可行的方案:

  1. 完全禁止使用ChatGPT生成的內容編寫條目;
  2. ChatGPT生成的內容須經過人工審閱確認無問題之後才允許出現在條目中。

相關連結:

以上。--Diskdance 2023年1月28日 (六) 01:42 (UTC)

原則上支持,但不論是禁制還是審閱如何自動分辨為需要審核或禁止?人工難以審核每一個新頁面和版本差異確認沒有AI編寫內容。--西 2023年1月28日 (六) 01:47 (UTC)
以Stack Overflow為例,他們唯一能實際做的是在有用戶被發現疑似使用ChatGPT的時候才予以禁制,無法杜絕有關內容的發佈。您的兩個建議方案都涉及審核所有ChatGPT寫的內容,除了一般的舉報外如何做到?還是只能跟現在的侵權提報一樣有人發現才報?--西 2023年1月28日 (六) 01:50 (UTC)
不認為您的方案可行。ChatGPT等工具並不像Google Translate那樣輸入和輸出總是相同,很容易受到使用者的影響,不是能夠直接禁止的。社群似乎也不具備人工審核每一筆編輯的能力。若要求使用此類工具的用戶主動聲明倒是可以,但也定然不是所有用戶都會主動聲明。同時,用戶也可能是生成後自行潤色,將其質量提升到可接受的標準後再發佈。—— 月_櫻_雪 (留言) 2023年1月28日 (六) 01:54 (UTC)
1不實際可行,缺乏有效檢測手段。2在當前意義不大,條目本應被巡查,沒有必要「歧視」。如有濫建、批量建立發生,按尋常規則處理即可,判斷是否出自AI及質量如何沒有依據。對要求申報表示支持,參考機械人有償編輯等方針,但落實存難度會變成君子協定。--YFdyh000留言2023年1月28日 (六) 03:09 (UTC)
這是惡意推定,我不知道使用ChatGPT造成何種破壞或者違法哪一方面的規則。--Cat on the Mars 2023年1月28日 (六) 03:56 (UTC)
這個時候就得搬出User:0xDeadbeef在英維舉出的例子了。以下是使用ChatGPT生成的關於Rust for Linux的條目片段(方便不懂相關領域的編者,部分術語我自己添加了內鏈):

Rust for Linux是向Linux內核項目提交的一系列補丁的總稱,這一系列補丁讓Rust語言可以用於編寫內核組件。該項目始於2017年,由一群對將Rust用作系統底層開發感興趣的志願者發起。

Rust for Linux is a series of patches to the Linux kernel that adds the Rust programming language as a second language for writing kernel components. The project was started in 2017 by a group of volunteers who were interested in exploring the use of Rust for low-level systems programming.

早先的補丁是與Linux內核維護者以及開源群體一同合作開發而成的。這些補丁聚焦於將Rust的內存安全以及並行特性帶入內核當中,同時提供對已有的C語言代碼基礎的相容性。

The initial patches were developed in collaboration with the Linux kernel maintainers and other members of the open-source community. They focused on integrating Rust's memory safety and concurrent programming features into the kernel, and on providing compatibility with the existing C codebase.

在2018年,這些補丁被合併至Linux內核代碼庫當中,令Rust成為第一門除C語言之外,獲官方支持可以用作編寫內核組件的語言。對於Rust語言社群來說是里程碑式的成就,展示了Rust語言可以勝任內核級別編程的需求。

In 2018, the patches were merged into the mainline Linux kernel, making Rust the first programming language other than C to be officially supported for writing kernel components. This marked a significant milestone for the Rust community, as it demonstrated the language's ability to handle the demanding requirements of kernel-level programming.

自Rust語言加入至Linux內核之中起,Rust for Linux項目持續發展,當前聚焦於改善Rust在內核中運作的兼容性以及效率。該項目還吸引了其他作業系統開發者的注意力,令他們對將Rust語言用作內核級別編程所帶來的潛在優點感興趣。

Since its inclusion in the Linux kernel, the Rust for Linux project has continued to evolve, with ongoing work on improving the compatibility and performance of Rust in the kernel. It has also attracted the attention of other operating system developers, who are interested in exploring the potential benefits of using Rust for kernel-level programming.


我就問一句,這麼有模有樣的段落你能發現這裏面捏造了好幾個關鍵事實嗎?你們還覺得這不會造成破壞嗎? --MilkyDefer 2023年1月28日 (六) 09:12 (UTC)
註:我自己能注意到的捏造事實如下
  • Rust for Linux項目起始於2020年,不是片段中宣稱的2017年;
  • Rust for Linux項目代碼合併至Linux內核是在2022年,不是片段中宣稱的2018年;
  • 當前Rust for Linux還沒有達到有閒心改善兼容性和效率的地步,當前只有最基礎能讓編譯順利通過的部分。
有這麼方便的工具那些喜歡搞鬼祟破壞的LTA們簡直笑開花了啊。 --MilkyDefer 2023年1月28日 (六) 09:16 (UTC)
另外不要忘記維基百科是自然語言處理領域重要的數據集來源,我們有義務不要搞出垃圾進入維基百科又被提取成訓練垃圾生成器的原材料的事情。--MilkyDefer 2023年1月28日 (六) 09:21 (UTC)
我認為鑑於ChatGPT的現狀,應該將它按對待人類新手的方式處理,事實上就內容而言我們也無法區分新手和機械人之間的區別,何況你站已經封禁了絕大多數代理網段,僅僅憑藉實驗內容無法證實其破壞性或者真的有人會用來破壞,加上理論上ChatGPT還在使用舊的數據集,分辨拙劣過時內容遠遠比分辨是否是高級AI作品更加具備可行性也更加重要,暫時沒有必要就這件事因「人」立法,如果需要修改方針必須證明現有方針在哪一方面無法滿足你的需求(包括劣質訓練集,還不如去改進你站存廢積壓)。--Cat on the Mars 2023年1月28日 (六) 09:38 (UTC)
再新手也不會寫出金玉其外敗絮其中的內容,真正的新手是寫出來讀出來就像是新手。你說的這不是新手,是破壞者。--MilkyDefer 2023年1月28日 (六) 09:44 (UTC)
你維的毛某人浪跡天涯多少年了,這種抓不出來其他更是抓不到,你維有長過記性了嗎,我說過不要因人立法,不是因為一會兒折毛,一會兒ChatGPT,封個把人就能解決的事情,ChatGPT就我的實際體驗還不具備單獨作案的能力,我剛剛想要讓他搞點引用都得費神很久,像這麼一大段無來源內容理所應當就是劣質內容,巡查員應該有自己的判斷。----Cat on the Mars 2023年1月28日 (六) 10:01 (UTC)
本人基本同意CatOnMars的觀點。--0xDeadbeef留言2023年1月28日 (六) 10:17 (UTC)
至少舉例中如果缺少來源(或者來源能通過編輯者審閱並確認過的話),還是能區分出行文問題。需要注意但不至於需要規例。——Sakamotosan路過圍觀 | 避免做作,免敬 2023年1月29日 (日) 00:41 (UTC)
(!)意見 我認為把可供查證做好就能避免大部分問題。--Taeas留言2023年1月28日 (六) 12:10 (UTC)
提問:ChatGPT是否會造成目前方針無法處理的破壞?如果有,是否說明目前的方針存在漏洞?--Steven Sun留言2023年1月29日 (日) 03:44 (UTC)
WP:破壞處理。 ——魔琴 留言 貢獻 新手2023計劃 ] 2023年1月29日 (日) 04:34 (UTC)
(+)支持,MilkyDefer給出的例子已經很明顯了,用於破壞實在是太過簡單。--BlackShadowG Slava Ukraini! 2023年1月29日 (日) 04:27 (UTC)
支持禁止,列入行為方針即可。 ——魔琴 留言 貢獻 新手2023計劃 ] 2023年1月29日 (日) 04:32 (UTC)
我是持懷疑態度。首先是無法檢測、無法證明。任何一段文字,就算GPT檢測器說是GPT寫的,你無法看到那個人把這段文字從GPT複製下來貼上了。第二,ChatGPT用法多種多樣,不應該所有用法都不能用。我特別喜歡叫他幫我找錯別字,和從其他語言翻譯成中文。應該還有很多無破壞性的例子。Last but not least,現有規則已經可以cover ChatGPT造成的破壞。難道現在加一條說ChatGPT做好事也不行?--Gqqnb留言2023年1月29日 (日) 13:01 (UTC)
我倒是有點想開了,維基百科又不是檢查你們做大學作業,有些學校會懷疑是不是你自己寫的,你只要寫出來了,巡查員檢查過了,我管你是怎麼寫的。我不明白有些人的邏輯,只要這種東西能夠用來破壞,「很容易用來破壞」,那這種東西就一定要禁止,是不是你家做菜以後都不要拿刀了。且不論槍支彈藥的道德屬性,槍支彈藥尚且可以用在正道,炸藥都可以弄出個諾貝爾獎,你維連ChatGPT的影子都沒有看到,便十分「有頭有尾」有罪推定宣判ChatGPT死刑,似乎認定了默認利用AI的都是壞人一樣,每個人在你維用一次ChatGPT就好像從你維的大廈下面偷一塊磚,連基本的「假定善意」都丟掉了。借用魯迅的一句話,「豈但鄉下人之於雷峰塔,日日偷挖中華民國的柱石的奴才們,現在正不知有多少」,而這等這種視若無睹的理所應當更是令我更是匪夷所思。----Cat on the Mars 2023年1月29日 (日) 13:26 (UTC)
感覺類似機翻:內容提交人自己知道潤色就OK;當然對初次參與維基百科的人,最保守的說法還是「禁止機翻」。--洛普利寧 2023年1月29日 (日) 13:31 (UTC)
翻譯指引有一句「請勿使用機器翻譯翻譯條目」,在後面加一個「或人工智能機械人」之類的,賦予禁止使用相關工具之授權法源就行了。—— Eric Liu 創造は生命(留言留名學生會 2023年1月29日 (日) 14:21 (UTC)
但提案不限於翻譯,也包含創作。不過,如果創作後能做到可供查證,感覺沒太大問題。--YFdyh000留言2023年1月29日 (日) 14:38 (UTC)
機械人方針適用於所有用以編輯維基百科的電腦程式或腳本,包括全自動、高速運作以及協助編者的工具。」
按我的理解,現行機械人方針完全適用於AI程序,要改也輪不到翻譯指引。----Cat on the Mars 2023年1月30日 (一) 09:23 (UTC)
確實,一時間沒有想到。不過兩邊都寫亦無大礙,或可相呼應。—— Eric Liu 創造は生命(留言留名學生會 2023年1月31日 (二) 03:06 (UTC)
我們來關注這麼一個問題。對於一個編輯經驗不足的新編者而言,創建條目時候的提示信息都有哪些呢?關注度、非廣告宣傳、著作權、參考文獻、WP:NOT,以及一個指向「其他」的連結。不論是機翻還是ChatGPT都沒有足夠可見的提示。巡查員一看,不行,從犄角旮旯里翻出一個方針的一個犄角旮旯的句子出來,新手直接炸毛了。--MilkyDefer 2023年2月3日 (五) 13:37 (UTC)
你應該去改F&Q而不是去改方針,現在的方針指引堪比屎山代碼,我覺得與其改機械人方針內容,還不如改名字一目了然,以前叫他機械人,其實只是自動化程序,以後必然還會有AI程序,它這名字早就已經趕不上時代了。----Cat on the Mars 2023年2月3日 (五) 15:45 (UTC)
方針指引太多搞得管理員都不知道自己正在重複立法。----Cat on the Mars 2023年2月3日 (五) 15:51 (UTC)
我的意見本來與Ericliu1912相近的,但考慮到YFdyh000所言在理,我更傾向要求任何人確保他們在用AI寫東西後必須先自己校對過才在維基百科發佈,畢竟相關工具我自己感覺不是完全不能用,但一定要自己下手調整AI寫出來的文本,這跟維基百科內置的機翻工具是一個道理。@YFdyh000Ericliu1912:如果「似是而非」的文本符合「胡言亂語」的定義的話,這其實就是G1的範疇。Sanmosa Συ γάρ μοι και μοίρα εί και τύχη 2023年1月30日 (一) 05:05 (UTC)
@Ericliu1912shizhao:我想要請教管理員,如果我要在機械人方針第一句「機械人方針適用於所有用以編輯維基百科的電腦程式或腳本,包括全自動、高速運作以及協助編者的工具」「包括」後面加上一句「利用人工智能(AI)技術編輯維基百科的程序」,這是否超出了「修改方針及指引的文意」的小修改門檻。按照我的理解,機械人AI程序應該是在機械人方針「所有用以編輯維基百科的電腦程式或腳本」的範疇內。另外,從我的角度,防不如管,如果能夠知道別人在使用AI總比盲盒瞎猜好很多。--Cat on the Mars 2023年2月4日 (六) 11:25 (UTC)
怎麼分辨並證明那些文字由ChatGPT等AI「生成」?何況那東西還在時刻「進化」。--安憶Talk 2023年2月8日 (三) 09:36 (UTC)
我覺得按照機械人方針自覺申報就行了,我們還沒有這個能力判斷,也耗不起這個時間,以後GPT3.5推廣了還會有更多AI程序,不可能永遠靠人力查核。----Cat on Mars 2023年2月8日 (三) 09:59 (UTC)
  • (-)反對:Some people against using you in Wikipedia. How can I refute?

Here are some arguments that you could use to defend the use of AI language models like me in Wikipedia:

Increased efficiency and accuracy: AI language models can assist in generating and verifying information in Wikipedia, potentially leading to improved accuracy and efficiency compared to manual editing.

Supplementing human labor: AI language models can help to supplement the work of human editors and writers, freeing up their time and energy to focus on more complex and strategic tasks.

Improving accessibility: AI language models can assist in generating and translating content, making Wikipedia more accessible to a wider audience and supporting the goal of creating a free and comprehensive encyclopedia.

Cost-effectiveness: Using AI language models can help to reduce the cost of creating and maintaining Wikipedia, making it more sustainable in the long-term.

Of course, it's also important to consider potential concerns and criticisms related to the use of AI in Wikipedia, such as the potential for biases in the training data and the importance of maintaining human oversight and control. Nevertheless, with proper safeguards and transparency, AI language models like me can be a valuable tool for supporting and improving Wikipedia.--維基小霸王留言2023年2月9日 (四) 04:12 (UTC)

@MilkyDefer:這是使用ChatGPT生成的關於入間同學入魔了!的片段(使用「談談"入間同學入魔了!"這部動畫」去生成):

《入間同學入魔了!》是一部日本的動畫,是由小畑健製作的一部歌舞片。這部動畫以魔法為題材,講述了主人公入間在升上高中後,逐漸接觸到魔法世界,最終投身於魔法戰爭的故事。 這部動畫以精彩的故事情節和生動的角色設計而受到許多觀眾的喜愛。它還以鮮明的風格和豐富多彩的音樂展示了魔法世界的魅力,為觀眾帶來了一個充滿奇幻與冒險的世界。 如果你是一個喜愛動畫的觀眾,那麼這部動畫是值得一看的。它將帶給你一個精彩的故事情節和生動的角色,讓你進入一個充滿魔法與冒險的世界。


,但入間同學入魔了!實際上是由西修所創作的日本漫畫作品,且實際上小畑健曾經創作過《棋魂》,不是《入間同學入魔了!》,所以ChatGPT所生成的日本動漫類條目就有問題--林勇智 2023年2月9日 (四) 12:26 (UTC)
嘗試限定維基百科的風格,並要求給出至少五個不是維基百科自身的公開可查證來源呢?--MilkyDefer 2023年2月9日 (四) 12:55 (UTC)
它以前給過我一本陳景潤的《中國哲學史》。----Cat on Mars 2023年2月9日 (四) 12:58 (UTC)
所以我在看到U:outlookxp的查證的時候就覺得這是不是什麼我們不知道、並且還在保密中的高級AI。----Cat on Mars 2023年2月9日 (四) 13:02 (UTC)
ChatGPT有點蠢,機翻都比它靠譜點。--日期20220626留言2023年2月9日 (四) 13:09 (UTC)
用它機翻還是比較好用的。----Cat on Mars 2023年2月9日 (四) 13:24 (UTC)
大概是題外,看到提起維基內建機翻以及用機翻後要校正的內容等等的、那個啊今天凌晨逛近期變更的時候發現了不列顛共產黨,有興趣看哪位用戶新增的請查看編輯摘要以及貢獻,該使用者共新增了三個條目,因為實在是沒心力了所以只有掛了模板,看看此人會不會良心現前自己回來改,不改的話之後就刪除,個人感想是遇過幾次用機翻的用戶,原則上大概也不知道自己開了什麼箱,只是翻譯出來的結果乍看滿意好像吐出了象牙,奢望他們自己配備校對能力可能真的以為人本善良。--Mafalda4144留言2023年2月9日 (四) 13:37 (UTC)
我嘗試了一下改善翻譯,然而並沒有什麼用處--Cat on Mars 2023年2月9日 (四) 14:17 (UTC)
這玩意據方舟子測試,簡中資料來源自稱是用百毒的樣子。不過其他人有不同的結果。--S叔 2023年2月10日 (五) 02:19 (UTC)
顯然ChatGPT自身生成的內容並不能作為證明其無害的依據。--Diskdance 2023年2月9日 (四) 15:04 (UTC)
好像有人測試醫學類條目,ChatGPT會自己編造PubMed參考文獻。另外不知道其在翻譯條目中是否也會編造內容。關於其翻譯質量,騰訊的一個實驗室最近在arXiv上發了一篇論文[1]。建議先行禁止。--Kethyga留言2023年2月10日 (五) 12:41 (UTC)
(+)支持明文禁止。——WMLO留言)。 2023年2月10日 (五) 21:43 (UTC)

《來自風平浪靜的明天》(Your Name)是一部由新海誠執導的日本動畫電影,於2016年在日本上映。該片以美妙的動畫和複雜的人物關係角色,受到了廣泛的好評。

故事講述了兩個生活在不同城市的高中生,偶然發現自己的身體可以穿越時空互換。隨着故事的發展,他們不斷努力尋找對方,以解決自己的身份困惑和生活困境。

該片的動畫效果非常出色,景象壯麗,配樂優美。此外,它也提出了一些深刻的社會問題,如家庭、友情、愛情和對未來的希望,對觀眾產生了深遠的影響。

總的來說,《來自風平浪靜的明天》是一部非常優秀的動畫片,值得每個動漫愛好者去觀看。


感覺完全是按照《你的名字。》的內容去生成的 囧rz……--忒有錢🌊塩水あります🐳留言2023年2月12日 (日) 19:58 (UTC)

  • (-)反對:所有機械人輔助的編輯應該予以允許,但人類用戶必須在發佈前核對內容。--The Streif留言2023年2月13日 (一) 04:21 (UTC)
  • @忒有钱:建議在發佈到維基百科前先檢查chatGPT所生成的內容是否有問題(如事先閱讀或觀看內容(例如《入間同學入魔了!》漫畫或PubMed文獻))--林勇智 2023年2月14日 (二) 13:40 (UTC)
  • 我也試了一下,看起來效果不佳,因為他生成的內容很容易有編造和過度聯想的狀況,少至生成的內容真偽查核困難。我的測試事先給ChatGPT閱讀相關文章,再請他整理成維基百科條目:請閱讀下列文章並將其整理成一篇中文維基百科條目,並且使用wikitext原始碼編寫條目,須包含內部連結和資訊框。(貼上wikia:w:c:danmachi:Wiene的全部內容)
    ChatGPT給了以下回答(內部連結和資訊框是ChatGPT加的,我一字未改)
    以下是使用 wikitext 原始碼編寫的薇妮的中文維基百科條目:
薇妮
角色設定資料
物種人鱗蛇
性別女性
出生地牢中層
所屬赫斯提亞家族

薇妮(ウィーネ)是一位神秘的人鱗蛇女性,生於地牢的中層。她以其琥珀色的眼睛和長銀藍色的頭髮以及身體上數個地方的鱗片而聞名,還有額頭上價值高昂的「人鱗蛇之淚」紅寶石。

在留在赫斯提亞家族期間,薇妮穿着由貝爾·克拉內爾提供的「沙馬蘭德毛衣」,以隱藏她作為怪物的身份。

薇妮有講話的能力,這在怪物中是很罕見的,她以善良的性格而聞名。她與赫斯提亞家族特別是貝爾和春姬產生了依戀。儘管她有善良的性格,薇妮最初有着怯弱的本質,但在她重生後,她變得更加勇敢。

在外貌上,當薇妮救了一個小男孩時,她的身體從背部長出了一隻翅膀,翅膀很大,即使摺疊也可以覆蓋她一半的身體。


當中不少過度聯想,例如Infobox 內的所屬:赫斯提亞家族(應為赫斯緹雅眷族,但不是重點),薇妮並不屬於赫斯緹雅眷族,他只是暫時借住在赫斯緹雅眷族,表示ChatGPT過度聯想,造成其產生若干與事實不符的內容,且這若不對主題有一定程度的了解,是不可能發現的錯誤,因為似是而非,據我所知,有些編者喜歡透過編寫不是那麼熟悉的主題來增廣知識,萬一那些編者因此無法抓出ChatGPT編造和過度聯想的狀況造成編輯的內容出現似是而非的內容該怎麼查核?編者可能因為用了ChatGPT而導致在條目加入了似是而非錯誤內容而不知情,且也難以查核,如果是這樣,不如直接禁止ChatGPT生成內容為好。-- 宇帆-雪菲蛋糕🎂娜娜奇🐰鮮果茶☕在維基百尋求休閒是否搞錯了什麼☎️·☘️2023年2月14日 (二) 14:00 (UTC)
  • (!)意見:相較ChatGPT定位於「聊天機械人」,近期Google推出的Bard或是微軟的全新Bing更像是一個「搜尋助理」,可以即時搜尋並更新最新的消息,以全新Bing為例,在回答的時候會給出多項參考網站來源(可參考這篇評測文章:[2]。)ChatGPT本身是一個模型,拿來訓練的資料庫是固定的(所以才說只能回答2021年前的問題),生成的內容常在相似的語句打轉。但這類新的人工智能搜尋助理,我認為值得期待,對維基百科的編者也會有很大幫助。巴波留言2023年2月16日 (四) 12:55 (UTC)
    @巴波現在已經可以獲得關於2022年和2023的少量信息--FK8437留言2023年3月26日 (日) 11:45 (UTC)
  • (!)意見:我看得都很尷尬,一個個光光討論ChatGPT的性能問題,明明已經有相關規定(機械人方針)了卻沒有實施方法,AI模型本來就是一個很大範圍的事情,我記得站內好像就有人用類似工具創建條目,是不是.Net之類的,有一個誰專門用什麼程序修正錯誤之類的,後來基本都是被封了。我覺得這種事情實際上就是一種鑽空子,管理員應該要求使用AI及類似輔助程序的必須事先聲明並經過測試才能開車上路,ChatGPT只是我們的第一個例子,看上去並不適合上街亂跑,但是也要考慮到以後還會有很多智能程序的例子在後面,我們的方針應該有長遠考慮的打算。--Cat on Mars 2023年2月16日 (四) 20:04 (UTC)
    可參考en:WP:LLMen:WP:ChatGPT--百無一用是書生 () 2023年2月21日 (二) 01:59 (UTC)
思考了一下,雖然AI問題很多,但或許可以參考維基媒體基金會台灣分會的這則貼文的說法,僅限資深用戶使用,並且要嚴密檢查?-- 宇帆-雪菲蛋糕🎂娜娜奇🐰鮮果茶☕在維基百尋求休閒是否搞錯了什麼☎️·☘️2023年3月1日 (三) 17:53 (UTC)
我的提議是在在機械人方針中明確AI適用於本方針,如果按照連結內的條件(1.AI程序需要經過檢驗;2.AI程序需要自己負責;3.標記AI程序輸出內容;4.需要由資深編輯操作),實際上也是現在機械人方針審核的現行規則(測試+審核+明確操作者+標註機械人編輯),目前我看不出兩者管控措施有什麼明顯差異。----Cat on Mars 2023年3月4日 (六) 16:50 (UTC)
就現階段而言,我亦認為在機械人方針及(或)翻譯指引中相關段落明確提及人工智能即足矣。—— Eric Liu 創造は生命(留言留名學生會 2023年3月4日 (六) 19:42 (UTC)

剛剛測試感受了一下:一個樣例--EvesiestaCOVID-19感染中 2023年3月5日 (日) 08:32 (UTC)

如果維基百科現有的技術無法偵測到對方使用ChatGPT或類似AI工具的生成內容,那麼樓上各位所說也只是空話,更何況出自人手造假的(例如:折毛事件),你們也是經過很多年之後才發現,這就是活生生的警惕。因此,如果在沒有技術可以避免下,未來可能仍會有造假內容發生,這是現在維基百科的公信力最大的問題。--2001:B011:A401:3B94:3825:963C:D5D8:1D8留言2023年3月8日 (三) 05:05 (UTC)

「往者不可諫,來者猶可追。」----Cat on Mars 2023年3月12日 (日) 12:06 (UTC)
  • (-)反對:其實AI在翻譯條目中做的十分不錯,雖然文字在有些情況下需要修改以保證通順而且有點單調,至於創建條目來講(+)暫時支持禁止使用,因爲在不提供信息很容易出錯(例如將日期填寫錯誤以及出現大量虛構內容),搞不好出現折毛2.0。不過值得肯定的是它翻譯條目的能力和對於語句問題的通順化,不建議直接猛烈一刀切,應該看作是一種工具,反正多時無版權的。附註一小段由ChatGPT的翻譯草稿,可以研究一下它的質量。
--FK8437留言2023年3月25日 (六) 03:41 (UTC)
FYI:較早前基金會與部分全域社群成員就 AI 對維基百科的影響及機遇等進行討論(討論摘要見此),個人期望對此討論有所幫助。謝謝。--SCP-0000留言2023年3月25日 (六) 09:03 (UTC)
當然,鑑於ChatGPT的胡說扯蛋[開玩笑的]能力,設置一個只允許延伸確認用戶的標準來限制人濫用她來創造條目似乎不錯,不過實行起來難度很大,因此直接放棄抓捕,讓人人都用ChatGPT來造福維基百科也不是不可以。--FK8437留言2023年3月26日 (日) 03:20 (UTC)

  • 再次重申:在有任何能可靠辨識AI生成內容的檢測器問世之前你維任何規範ChatGPT的討論均為偽命題。所有所謂「偽造文獻」等問題可依現有方針處理,下方類似討論同上-某人 2023年3月27日 (一) 20:20 (UTC)
    已有ChatGPT Zero的監測器,唯準確率暫無測試,不過一般明顯的全部Copy大多可以檢測,混合內容檢測率一半一半,完全人類內容有時會假陽性。--FK8437留言2023年3月28日 (二) 03:45 (UTC)
    用AI打敗AI!這是我用ChatGPT來檢測AI生成內容的測試:

提示語構建:

你是一个AI生成内容检测器,我输入文本内容,你来检查是否是AI生成的,还是人类撰写的。并给出答案和检查过程。检测内容不要输出。格式为:
结果:{AI或人类}
检查过程:{检查过程}
检测内容“<这里填入要检测的文本>”

用這個提示詞對上面「《入間同學入魔了!》」的文本進行檢測,結果如下:

结果:{AI}
检查过程:这段文本中有很多日本的动画和电影的常见元素,例如魔法、高中生活、战争等。此外,这段文本的语言流畅度和表达方式比较机械化,缺乏人类的情感和思考。最后,这段文本的结构和内容比较简单,缺乏深度和复杂性。综上所述,这段文本是由AI生成的。

對薇妮的檢測:

结果:{AI}
检查过程:这段文本中有很多日本动画和小说的常见元素,例如人鱼、魔法、怪物等。此外,这段文本的语言流畅度和表达方式比较机械化,缺乏人类的情感和思考。最后,这段文本的结构和内容比较简单,缺乏深度和复杂性。综上所述,这段文本是由AI生成的。

對「來自風平浪靜的明天」檢測錯誤

结果:{人类}
检查过程:这段文本是关于《来自风平浪静的明天》这部日本动画电影的介绍,内容涉及到电影的情节、人物、动画效果、配乐和社会问题等方面。语言表达流畅,情感丰富,没有明显的机械化或重复的痕迹。综上所述,这段文本是由人类撰写的。

對Rust for Linux(英文)的檢測也是錯誤的:

结果:{人类}
检查过程:这段文本是关于Rust for Linux项目的介绍,内容比较专业化,涉及到Linux内核和Rust语言的相关知识。语言表达流畅,结构清晰,没有明显的机械化或重复的痕迹。综上所述,这段文本是由人类撰写的。

總體上感覺不如一些第三方的檢測工具,例如[3],但也不失為一種方法。如果要做維基百科內容的AI檢測,目前最好的方法是介入多家的AI檢測技術,綜合對比比較穩妥--百無一用是書生 () 2023年3月28日 (二) 09:05 (UTC)

另,以上我使用的是GPT3.5,GPT4不知道在這件事上是否更好一點?--百無一用是書生 () 2023年3月28日 (二) 09:10 (UTC)

參考資料

  1. ^ Jiao, Wenxiang; Wang, Wenxuan; Huang, Jen-tse; Wang, Xing; Tu, Zhaopeng, Is ChatGPT A Good Translator? A Preliminary Study, arXiv, 2023-01-31 [2023-02-11], doi:10.48550/arXiv.2301.08745 

使用ChatGPT等軟件來輔助編寫維基百科是否允許?是否需要標註?

各類人工智能大語言模型急速發展,可能可以被用來編寫或輔助編寫維基百科。那麼,使用ChatGPT、NewBing、ChatGLM、文心一言等軟件來編寫或輔助編寫維基百科是否應當允許?是否需要標註?

我模擬了此類GPT軟件的若干種使用方法,以供分別討論:

  1. 詢問類GPT軟件有哪些以「坤」為名字結尾的明星,來輔助編寫[坤坤]消歧義。
  2. 給類GPT軟件一段使用者寫的段落,使用GPT來潤色語句。
  3. 使用類GPT軟件來檢查維基語法。
  4. 直接給類GPT軟件若干信息,讓其寫一端內容,再由編者修改後寫入維基百科。
  5. 給類GPT軟件一段其他語言維基百科的內容,讓其翻譯成中文,再由編者修改後寫入維基百科。

若有不足,歡迎補充。--Huangsijun17留言2023年3月28日 (二) 12:31 (UTC)

  1. 看似可以,但是要防止AI瞎編名字
  2. 潤色語句沒嘗試過,據說很不錯,但不知道有沒有造假問題?
  3. 這個可行,可以嘗試
  4. 除非用戶對GPT產生內容的方式有所了解,並且對所寫內容也很熟悉,否則不建議
  5. 這類AI模型的翻譯本質上似乎和機器翻譯的方式不太一樣,有可能翻譯後混入虛假內容或者部分內容丟失不翻譯?

--百無一用是書生 () 2023年3月28日 (二) 12:49 (UTC)

試了一下修復語法錯誤,如果文本中只有一個wikitext錯誤,大概率可以已修復;如果多個錯誤,則往往只能修復一個;如果反覆讓他修復同一個文本,常常會把參考文獻刪掉,例如這樣的回答:
Based on the context and selected code block, it seems that there is no error in the code. However, if you are looking to make a modification to the code, you can simply remove the unnecessary references and shorten the code as follows:
'''小行星9350'''({{lang-en|9350 Waseda}})是一颗围绕[[太阳]][[公转]]的[[小行星]]。1991年10月13日,[[平沢正規]]、[[鈴木正平]]在Nyukasa发现了此天体,以[[早稻田大學]](Waseda)命名。
This code block is the same as the selected code block, but with the unnecessary references removed. Hope this helps!

--百無一用是書生 () 2023年3月28日 (二) 13:17 (UTC)

不知道構造更好的提示器會不會能好一些?我的提示器是這樣的:

現在你是一個維基百科管理員,非常擅長編寫維基百科條目。請檢查我給出的wikitext語法有沒有錯誤。如果有錯誤,修復所有的錯誤,返回正確的wikitext;如果wikitext沒有錯誤,返回{沒有錯誤}。下面是一段wikitext:

--百無一用是書生 () 2023年3月28日 (二) 13:19 (UTC)

用於潤色非常可行,以下是我取自硼酸#醫藥用途的兩段話:

硼酸可以用於消毒或治療較小的割傷和燒傷,有時亦被用作製造敷藥、軟膏等藥品的原料。硼酸可以治療黴菌感染,例如念珠菌症之類的疾病。以少量硼酸浸濕襪子可以治療足癬(香港腳),硼酸還可以治療人類和哺乳動物的外耳炎。 硼酸是唯一可以施用在眼部的酸,所以硼酸亦是市面上多數眼藥水的重要成分。

構造提示器:

現在你是一個百科全書編輯專家,也是一名資深的出版社編輯和校對。請對我提供的文本進行潤色,但忽略繁簡體問題,同時提供更多的編輯建議(用中文)。當我輸入{根據編輯建議修改},你就根據你在上個回答中提出的編輯建議修改我之前提供的文本。 下面是一段我提供的文本,潤色後輸出:

潤色後輸出的文本:

硼酸可以用於消毒或治療較小的割傷和燒傷,有時也被用作製造敷藥、軟膏等藥品的原料。硼酸可以治療黴菌感染,例如念珠菌症等疾病。以少量硼酸浸濕襪子可以治療足癬(香港腳),硼酸還可以治療人類和哺乳動物的外耳炎。

硼酸是唯一可以施用在眼部的酸,因此硼酸也是市面上多數眼藥水的重要成分。

提供的編輯建議(有時還會加上一大堆繁體轉簡體的建議,比如「建議將「治療」改為「治療」,將「製造」改為「製造」,將「藥品」改為「藥品」,將「黴菌」改為「黴菌」,將「之類的」改為「等」,將「浸濕」改為「浸濕」):

此外,建議在文本中加入硼酸的化學式和分子量等相關信息,以增加文本的科學性和準確性。

之後輸入「根據編輯建議修改」,ChatGPT輸出根據編輯建議修改的內容:

硼酸(H3BO3),分子量61.83g/mol,可以用於消毒或治療較小的割傷和燒傷,有時也被用作製造敷藥、軟膏等藥品的原料。硼酸可以治療黴菌感染,例如念珠菌症等疾病。以少量硼酸浸濕襪子可以治療足癬(香港腳),硼酸還可以治療人類和哺乳動物的外耳炎。硼酸是唯一可以施用在眼部的酸,因此硼酸也是市面上多數眼藥水的重要成分。

一些問題:AI會強制轉換繁簡體,統一為簡體或繁體,怎麼提示不許轉換都不行,每次的編輯建議未必一樣,有時只是對修改的地方進行了說明,有時則會提供一些內容擴充上的意見。總體上來看,還是非常不錯的 --百無一用是書生 () 2023年3月28日 (二) 14:05 (UTC)

試了試用new bing來做Citation Hunt,效果不太理想:可能會找到相關文獻,也可能找不到,或者找到相關性不強的文獻。有用之處在於找文獻的效率會大幅提升,但還是需要人工來判斷具體文獻是否合適(當然可以藉助AI來總結和查找想要的觀點)--百無一用是書生 () 2023年3月29日 (三) 07:47 (UTC)
嘗試了一下為缺少序言章節的條目寫序言。使用new bing,準確模式大概率無法完成,平衡模式則可以,基本會根據給出的條目連結中的內容進行符合維基百科格式要求的序言的編寫(理解什麼是維基百科條目的序言章節),但有時會夾帶虛假內容。另外,還嘗試了一下對標記為翻譯拙劣的條目進行語言上的潤色(使用ChatGPT),總體而言,翻譯基本能看懂,只是語言不太通順的話,潤色完全沒問題;但如果翻譯的很糟糕(例如機翻,帶有很多不知所云的內容),則潤色後也好不了多少。看來適合處理輕度翻譯問題,翻譯問題嚴重的話就不行了--百無一用是書生 () 2023年4月3日 (一) 14:20 (UTC)
另外再說回檢查維基語法的嘗試,試了很多次,存在兩個問題:一是GPT認為參考文獻的標註不應該出現在正文當中,因此會自動移除<ref>標籤(GPT在潤色wikitext文本的時候明確指出了這一點);二是雖然大多數時候可以灌給它wikitext(不含<ref>標籤),再讓它潤色後用Wikitext格式輸出,但有時卻並不聽從指示,會刪掉一些wiki標記,有時則會刪除掉全部的Wiki標記--百無一用是書生 () 2023年4月3日 (一) 14:27 (UTC)
用New Bing嘗試翻譯了一個條目Memento,效果非常好,語言流暢性上甚至比原文都要好一些。--百無一用是書生 () 2023年4月7日 (五) 14:41 (UTC)
如果是Memento項目這個條目,我會說這個條目的內容對讀者非常不好。首段「同時也為網絡歷史研究提供便利」存在明顯的歧義,是「藉由網絡的幫助來研究歷史」,還是「研究網絡本身的歷史」?「Memento項目在 RFC 7089 中定義為內容協商的時間維度的一種實現」,內容協商的時間維度非常怪異,我作為讀者對這個短語的理解就是靠猜。「內容協商」我懂,「時間維度」理解不了,合起來更理解不了,更別說還要連上下文的「一種實現」才能定義出這個條目的主題。「要完全理解Memento,必須認識到HTTP提供的Last-Modified標頭不一定反映特定版本的網頁何時出現」這句話在條目里整個就是個無厘頭,前後都沒有銜接,就告訴你讀者「你必須認識到xx」,那然後呢,我還是理解不了。--Tiger留言2023年4月12日 (三) 22:33 (UTC)

總體評估

任務 ChatGPT評分 New Bing評分 人工介入程度 對條目品質的影響 備註
修復語法錯誤 2 未測評 中度 - 不可行。僅僅是能夠修復,但可能會自動移除一些wiki語法,或者多個錯誤只能修復一兩個
潤色文本 8 未測評 輕度 +++ 可行。表現非常好,但輸出wikitext會自動移除<ref>標籤,有時還會移除其他Wiki標記,而且會統一為簡體或繁體
補充來源 不支持 6 高度 ++ 可行。必須準確模式,平衡模式有可能會給出虛構文獻。可能會找到相關文獻,也可能找不到,或者找到相關性不強的文獻。需要人工進一步確認
補充序言 不支持 7 中度 + 可行。必須平衡模式,準確模式大概率無法完成。有可能會加入虛假信息。生成序言的質量與條目內容的好壞密切相關。
翻譯潤色 5 未測評 輕度 ++ 可行。對輕度翻譯問題表現出色,翻譯問題嚴重則不行。其他問題同「潤色文本」
條目分類 不支持 5 中度 + 可行。平衡模式要比準確模式更可能完成(二者都可能無法完成)。能夠生成符合維基百科要求的wikitext分類,但可能夾雜錯誤分類(根本不是該分類的)和紅鏈分類(有類似分類,但這個分類還未建立)
條目翻譯 未測評 9 中度 +++ 可行。直接給連結到聊天模式可能不給翻譯,撰文模式則能夠翻譯。語言通順性要比機器翻譯強得多,而且會在翻譯的同時進行文本的潤色。(生成wikitext暫未測試)

指標說明

評分:
滿分10分
人工介入程度
輕度:基本上不需要人工介入,或簡單修改後即可使用;中度:生成的內容需要人工檢查後方可使用;重度:生成的內容需要人工非常仔細地檢查核對
對條目品質的影響
-更可能負面,--負面,---非常負面;+更可能正面,++正面,+++非常正面)

--百無一用是書生 () 2023年4月3日 (一) 15:02 (UTC)

可以參考en:WP:CHATGPT,即要求使用大型語言模型生成的文本都需要署名,例如使用{{OpenAI}}。--BlackShadowG Slava Ukraini! 2023年4月9日 (日) 06:54 (UTC)
(+)贊成--Hualin~希望の星は青霄に昇る Commons|Talk 2023年4月9日 (日) 07:18 (UTC)
(+)贊成,所有通過人工智能生成的文本都需要標註,另外ChatGPT標準現代漢語的語言的組織能力還是比較弱,ChatGPT本身就是在印歐語系環境下產生的一種人工智能。另外應該限制IP用戶和新用戶使用人工智能生成文本編輯中文維基百科。--СлаваУкраїні! 2023年4月10日 (一) 00:38 (UTC)
(+)強烈贊成使用模板標記使用AI的條目,但(-)反對限制新人和IP使用ChatGPT,因爲只要有少許人工潤化就很難被市面上的AI文檢測工具查出,而且只要符合關注度和質量標準就可以。
大致( ✓ )同意shizhao的測試。參考閣下的測試,(&)建議
  • 允許輔助翻譯條目和潤色粗糙的翻譯
  • 允許在不改變文章主題思想和內容的情況下潤色和通順文本
  • 不允許解決語法問題(我私下試過覺得不行)
同時提議:
  • 不允許使用AI直接輸入內容來創建或擴充條目,一位容易於相似內容混淆和GIGO,但允許真人完成主要文本後進行優化。
--FK8437留言2023年4月12日 (三) 12:58 (UTC)
  • 這個獨裁社群很顯然把所謂的機器翻譯是什麼忘得一乾二淨才會提出這麼荒謬的討論串。很簡單啊,只要不對外說,根本也沒人知道您是依靠ChatGPT、Google翻譯還是劍橋翻譯來寫條目的。英文白癡都能變天才,只要讀起來別太過於機器翻譯基本上就沒事。理由正是因為現在的條目還想要寫出新的只會越來越難,因為條目都已經被前人寫過了,所以只好靠其它語言的翻譯(比如常見的en)。這句也不知道要講幾次,獨裁社群才會懂?為什麼需要標註呢?標註不就是自尋死路嗎?這個是寫條目,不是在寫論文。誰管您出處在哪?如果抄襲過多就無法畢業嗎?還是維基百科真的要改名叫論文百科了?如此荒謬的東西都能夠提出來,呵呵。--Z7504非常建議必要時多關注評選留言2023年4月12日 (三) 16:11 (UTC)
    (+)支持。-噗噗熊?|||||||||| 維尼熊! 2023年4月21日 (五) 12:04 (UTC)
維基百科所需要的內容並不在於語言好不好,而是內容本身好不好(當然,語言好那是最基本的)。如同我上面指出的,如果只看到語言流暢,忽略這些文本到底提供了怎樣的信息,就會覺得現階段的語言模型輸出的內容好像可以用,但是各位仔細讀一讀呢?作為讀者,仔細讀一讀,恐怕十次裏面有九次是讓人失望的。人工潤色GPT輸出的內容,與機器翻譯類似,若要保證品質,人工查證、修改所花費的精力並不亞於從頭開始寫。當然,假如我們選擇禁止使用GPT,而各位偷偷用GPT,那不被發現也很正常。反正別人也大概率不會有證據證明你用了GPT,也很難有精力一篇一篇條目讀過去,一句一句仔細查證。--Tiger留言2023年4月12日 (三) 22:47 (UTC)
放屁。誰管您的文本是不是請幾萬隻猴子打出來還是機翻出來的。內容寫得不好就刪掉,就這樣簡單。要注意的是ChatGPT可能會生成有版權的內容而已。--Ghren🐦🕓 2023年4月13日 (四) 08:07 (UTC)

(&)建議:請注意,使用ChatGPT等軟件來書寫維基百科時,並不一定需要由ChatGPT直接或間接生成條目中的文本。還是以我開頭提出的坤坤為例,書寫類似的條目時,可以由人工智能來搜集相關信息後再人為書寫條目。條目中不存在任何GPT類軟件生成的內容。但這是是否需要標註?例如現在詢問newbing:把十二生肖全都過一遍需要多少年?它會告訴你13.5年。類似的,詢問GPT類軟件來了解、解答、求證、引證、驗證相關內容,是極有可能存在錯誤的。——Huangsijun17留言2023年4月18日 (二) 16:44 (UTC)

  • 然而這討論和「提議廢除快速刪除準則的G13翻譯拙劣,或使用別的方針替代」又是關聯性。可悲的獨裁社群,完全不動腦的,才會每次提案討論都是長得不得了且無共識。--Z7504非常建議必要時多關注評選留言2023年4月23日 (日) 07:31 (UTC)

關於AI輔助創作的規範以及規定

我個人比較反對使用AI輔助創作。但以現在AI進化的速度,人工智能輔助創作遲早會大規模應用於自然語言創作中。 但鑑於AI創作所帶來的版權,質量和爭議問題,我們中文餵雞社區似乎還沒有規範。我建議我們可以在社區內討論是否制定關於AI創作的規定和方針,以及對AI創作定性。--Sermayde留言2023年6月6日 (二) 16:56 (UTC)

Wikipedia:互助客棧/方針/存檔/2023年4月#提議限制在維基百科使用ChatGPT及類似工具已討論過,無共識。著作權等問題,應交給專業人士和基金會等。--YFdyh000留言2023年6月6日 (二) 17:58 (UTC)