本文介绍如何使用python精准提取文本文件中所有非拉丁字母字符(如阿拉伯文、中文等),跳过英文和ascii内容,支持大文件处理,并提供正则与unicode脚本级匹配两种专业方法。
在处理多语言混合文本(如含阿拉伯文、希伯来文、中文、梵文等)的大规模 .txt 文件时,若目标仅是提取非拉丁文(non-Latin)字符本身(而非整行保留),仅靠 str.isascii() 或简单 ASCII 判断远远不够——因为许多非英语语言(如法语、西班牙语、越南语)仍大量使用拉丁字母加变音符号,而 isascii() 会错误排除它们;更重要的是,它完全无法识别 Unicode 中真正属于 Arabic、Cyrillic、Han 等独立文字系统的字符。
✅ 正确做法是:基于 Unicode 脚本(Script)属性进行匹配,推荐使用 regex 模块(增强版正则,原生支持 \p{Script} 和 \P{Scr
ipt} 语法)。
首先安装支持 Unicode 属性的正则模块:
pip install -U regex
以下代码逐行读取源文件,对每行执行 字符级过滤:仅保留属于 Latin 脚本之外的所有字符(包括标点、空格、换行符等 Common/Inherited 脚本字符),并拼接为纯净的非拉丁文本:
import regex as re
# 匹配一个或多个「非拉丁」Unicode 字符(含空格、标点等通用字符)
pattern = re.compile(r'\P{Latin}+')
with open("test_doc.txt", "r", encoding="utf-8") as src, \
open("test_doc_dest.txt", "w", encoding="utf-8") as dst:
for line in src:
# 提取该行中所有非拉丁字符片段,合并为单个字符串(保留原始顺序)
foreign_parts = pattern.findall(line)
if foreign_parts:
# 拼接所有非拉丁片段(自动跳过中间的英文/ASCII部分)
cleaned_line = ''.join(foreign_parts)
dst.write(cleaned_line + '\n')? 关键说明: \P{Latin} 表示「不属于 Latin 脚本的任意 Unicode 字符」,涵盖 Arabic, Hebrew, Devanagari, Han, Hangul, Thai 等全部非拉丁文字; Common(如空格、破折号、括号)和 Inherited(如组合变音符)脚本默认被保留,确保排版可读性; findall() 确保只提取目标字符,不保留夹杂的英文单词或数字,彻底解决“整行写入”的误判问题。
要真正实现「只提取阿拉伯文等非拉丁文字」,核心在于放弃 ASCII/Latin 二分思维,转向 Unicode 脚本层级的精准匹配。使用 regex 模块配合 \P{Latin}+ 是目前最鲁棒、最符合国际标准的方案。代码简洁、可扩展性强,且天然兼容未来新增的 Unicode 文字系统。