You can not select more than 25 topics Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.

157 lines
4.4 KiB

# 《栩栩若生》电子书
### [>>> 在线阅读 <<<](https://xxrs.343.re/)
### [>>> TXT下载 <<<](https://res.343.re/Share/XXRS/%E6%A0%A9%E6%A0%A9%E8%8B%A5%E7%94%9F.txt)([备用地址](https://github.com/dnomd343/xxrs-crawler/releases/latest/download/XXRS.txt))
### [>>> MOBI下载 <<<](https://res.343.re/Share/XXRS/%E6%A0%A9%E6%A0%A9%E8%8B%A5%E7%94%9F.mobi)([备用地址](https://github.com/dnomd343/xxrs-crawler/releases/latest/download/XXRS.mobi))
## 编者序
初读《栩栩若生》时,我曾许诺过,若是结局皆大欢喜,就将这本小说整理发布出来,于是有了这个项目。
小说在各个网文平台上参差不齐,章节内容均有缺失错误。项目从七个不同网站上爬取数据,相互对照,修复合并,得到了初始样本;修复逻辑可以参照自述文件的流程图,具体细节可以查阅 Commit 树记录。
再而,借助于代码进行自然语言检查,对原文中大量的违禁词,例如警察、政审、刀枪之类的词语,还有错误的标点符号、错别字、繁体字等进行修正,前前后后共有千余处。
整合后的内容也由代码格式化发布,基于 GitBook 实现在线阅读,同时提供了 TXT 与 MOBI 格式的电子书,后者带有目录信息,在电子阅读器上体验更佳。此外,资源文件中也提供了原始的 JSON 数据,可供下游项目二次发布。
最后,Just enjoy it!
## 整合流程
<details>
<summary>展开</summary>
</br>
```mermaid
graph LR
subgraph crawler
source_1([108shu.com])
source_2([aidusk.com])
source_3([ixsw.la])
source_4([m.wxsy.net])
source_5([wxsy.net])
source_6([xswang.com])
source_7([zhihu.com])
end
subgraph sample
subgraph raw
s1a_raw{{sample_1-a}}
s1b_raw{{sample_1-b}}
s2a_raw{{sample_2-a}}
s2b_raw{{sample_2-b}}
s3_raw{{sample_3}}
end
subgraph combine
s1_combine[sample_1]
s2_combine[sample_2]
s3_combine[sample_3]
end
subgraph fixed
s1_fixed(sample_1)
s2_fixed(sample_2)
s3_fixed(sample_3)
end
subgraph replenish
sa{{sample_a}}
sb{{sample_b}}
end
source_1 ==> s1a_raw
source_2 ==> s1b_raw
source_3 ==> s1b_raw
source_4 ==> s2a_raw
source_5 ==> s2a_raw
source_6 ==> s2b_raw
source_7 ==> s3_raw
s1a_raw -- replenish --> s1_combine
s1b_raw --> s1_combine
s2a_raw -- replenish --> s2_combine
s2b_raw -- replenish --> s2_combine
s3_raw -- clean up --> s3_combine
s1_combine -- fix --> s1_fixed
s2_combine -- fix --> s2_fixed
s3_combine -- fix --> s3_fixed
s1_fixed --> sa
s2_fixed -- replenish --> sa
s2_fixed -. restore .-> sb
s3_fixed -- replenish --> sb
end
subgraph release
rc([RC version])
sa --> rc
sb -- fix --> rc
end
```
### 数据来源
+ [`108shu.com`](./src/crawler/108shu.com) :[http://www.108shu.com/book/54247/](http://www.108shu.com/book/54247/)
+ [`aidusk.com`](./src/crawler/aidusk.com) :[http://www.aidusk.com/t/134659/](http://www.aidusk.com/t/134659/)
+ [`ixsw.la`](./src/crawler/ixsw.la) :[https://www.ixsw.la/ks82668/](https://www.ixsw.la/ks82668/)
+ [`m.wxsy.net`](./src/crawler/m.wxsy.net) :[https://m.wxsy.net/novel/57104/](https://m.wxsy.net/novel/57104/)
+ [`wxsy.net`](./src/crawler/wxsy.net) :[https://www.wxsy.net/novel/57104/](https://www.wxsy.net/novel/57104/)
+ [`xswang.com`](./src/crawler/xswang.com) :[https://www.xswang.com/book/56718/](https://www.xswang.com/book/56718/)
+ [`zhihu.com`](./src/crawler/zhihu.com) :[https://www.zhihu.com/column/c_1553471910075449344](https://www.zhihu.com/column/c_1553471910075449344)
### 样本分析
1. 爬虫七个网站的数据,获得五份三组不同的 `raw` 样本:
+ `sample_1-a`
+ `sample_1-b`
+ `sample_2-a`
+ `sample_2-b`
+ `sample_3`
2. 经过简单合并后可得到三份初始 `combine` 样本:
+ `sample_1`
+ `sample_2`
+ `sample_3`
3. 进行对照合并,修复各类语法词汇错误、违禁屏蔽词等,得到三组 `fixed` 样本。
4. 再次合并,获得两份 `release` 样本:
+ `sample_a`
+ `sample_b`
5. 修复合并,得到 `RC` 样本。
### 内容发布
+ `RC-1` :初始合并版本
+ `RC-2` :修复部分屏蔽词与语法错误
+ `RC-3` :修复繁体中文错误
+ `RC-4` :修复标点符号错误
</details>
## 许可证
MIT ©2022 [@dnomd343](https://github.com/dnomd343)