国产美女高清一级a毛片_亚洲精品播放.亚洲精品播放_报告夫人漫画全集阅读下拉式_最近更新中文字幕免费1_国产精品久久国产无码

首頁(yè)
您所在的位置:首頁(yè) > 學(xué)習(xí) > 學(xué)堂知識(shí) > 正文

對(duì)聯(lián)-文言文自動(dòng)生成器:來(lái)試試自動(dòng)寫(xiě)古文

作者:句子 來(lái)源:句子 日期:2023/8/21 3:33:38 人氣:9 加入收藏 標(biāo)簽:in 自動(dòng) 生成 對(duì)聯(lián)

前兩天,我們基于 Hugging Face 的中文歌詞模型(Chinese GPT2 Lyric Model)在AINLP后臺(tái)添加了中文歌詞生成器:

中文歌詞自動(dòng)生成器:來(lái)試試自動(dòng)寫(xiě)歌

今天,我們繼續(xù)基于 Hugging Face 的文言文GPT2預(yù)訓(xùn)練模型(Chinese Ancient GPT2 Model) ,在 AINLP 添加了文言文生成器,感興趣的朋友可以關(guān)注AINLP后對(duì)話測(cè)試。

回復(fù)“寫(xiě)文言文:開(kāi)頭內(nèi)容”進(jìn)行測(cè)試,例如:

關(guān)于這個(gè)模型的詳細(xì)介紹,可以參考Hugging Face的模型主頁(yè),這里摘錄部分:

Chinese Ancient GPT2 Model

Model description

The model is used to generate ancient Chinese. You can download the model either from the GPT2-Chinese Github page, or via HuggingFace from the link gpt2-chinese-ancient

How to use

You can use the model directly with a pipeline for text generation:

>>> from transformers import BertTokenizer, GPT2LMHeadModel, TextGenerationPipeline

>>> tokenizer=BertTokenizer.from_pretrained("uer/gpt2-chinese-ancient")

>>> model=GPT2LMHeadModel.from_pretrained("uer/gpt2-chinese-ancient")

>>> text_generator=TextGenerationPipeline(model, tokenizer)

>>> text_generator("當(dāng)是時(shí)", max_length=100, do_sample=True)

[{'generated_text': '[CLS]當(dāng)是時(shí) 所 議 者 不 為 無(wú) 據(jù) , 況 亦 在 之 列 乎 ? 然 則 今 日 之 事 , 所 當(dāng) 思 者 在 何 ? 欲 求 國(guó) 是 于 天 下 , 莫 在 于 得 人 。 臣 以 為 求 人 之 法 , 不 在 多 用 官 一 途 。 誠(chéng) 使 得 才 者 眾 , 人 才 者 優(yōu) , 則 治 所 當(dāng) 得 , 而 不 事 于 官 者 , 人 才 乃 其 常 也 。 所 當(dāng) 講 者'}]

Training data

Training data contains 3,000,000 ancient Chinese which are collected by daizhigev20. Since part of ancient corpus has no punctuation, we used the ancient Chinese punctuation system developed by BNU ICIP lab.

特別感謝 GPT2-Chinese 項(xiàng)目的整理和分享的相關(guān)模型以及相關(guān)模型和數(shù)據(jù)的貢獻(xiàn)者:

以下是AINLP目前支持的自動(dòng)生成模塊,之后將加入更多的領(lǐng)域生成測(cè)試模塊,歡迎關(guān)注測(cè)試:

風(fēng)云三尺劍,花鳥(niǎo)一床書(shū)---對(duì)聯(lián)數(shù)據(jù)集和自動(dòng)對(duì)聯(lián)機(jī)器人自動(dòng)對(duì)聯(lián)活動(dòng)獲獎(jiǎng)結(jié)果以及機(jī)器對(duì)聯(lián)賞析"自動(dòng)作詩(shī)機(jī)"上線,代碼和數(shù)據(jù)都是公開(kāi)的鼠年春節(jié),用 GPT-2 自動(dòng)寫(xiě)對(duì)聯(lián)和對(duì)對(duì)聯(lián)用 GPT-2 自動(dòng)寫(xiě)詩(shī),從五言絕句開(kāi)始自動(dòng)作詩(shī)機(jī)&藏頭詩(shī)生成器:五言、七言、絕句、律詩(shī)全了僅供娛樂(lè),藏尾詩(shī)生成器來(lái)了

中文歌詞自動(dòng)生成器:來(lái)試試自動(dòng)寫(xiě)歌

【本文地址】

本文網(wǎng)址:http://www.huashan-ceramics.com/xuetangzhishi/125211.html
讀完這篇文章后,您心情如何?
  • 0
  • 0
  • 0
  • 0
  • 0
  • 0
  • 0
  • 0