metadata
dataset_info:
features:
- name: id
dtype: string
- name: url
dtype: string
- name: title
dtype: string
- name: text
dtype: string
splits:
- name: train
num_bytes: 7088384480
num_examples: 1395760
download_size: 3968649901
dataset_size: 7088384480
configs:
- config_name: default
data_files:
- split: train
path: data/train-*
language:
- ja
license: cc-by-sa-3.0
apache_beam
とmwparserfromhell
を用いて通常のWikipediaの前処理を行ったデータセットです。
本家の前処理時間が長すぎたため、前処理済みバージョンを配布しています。
各種規約・ライセンスは本家Wikipediaにしたがってください。
Preprocessing Code
import datasets as ds
dataset = ds.load_dataset(
"wikipedia",
language="ja",
date="20240101",
beam_runner="DirectRunner",
trust_remote_code=True,
)
dataset.push_to_hub("hpprc/wikipedia-20240101", max_shard_size="1GB")