加入收藏 | 设为首页 | 会员中心 | 我要投稿 核心网 (https://www.hxwgxz.com/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 建站 > 正文

基于Python语言的大数据搜索引擎

发布时间:2019-07-11 03:30:03 所属栏目:建站 来源:简单艾
导读:搜索是大数据领域里常见的需求。Splunk和ELK分别是该领域在非开源和开源领域里的领导者。本文利用很少的Python代码实现了一个基本的数据搜索功能,试图让大家理解大数据搜索的基本原理。 布隆过滤器 (Bloom Filter) 第一步我们先要实现一个布隆过滤器。 布

然后加入‘bird’对象,布隆过滤器的内容并没有改变,因为‘bird’和‘fish’恰好拥有相同的哈希。

基于python语言的大数据搜索引擎

最后我们检查一堆对象('dog', 'fish', 'cat', 'bird', 'duck', 'emu')是不是已经被索引了。结果发现‘duck’返回True,2而‘emu’返回False。因为‘duck’的哈希恰好和‘dog’是一样的。

基于python语言的大数据搜索引擎

分词

下面一步我们要实现分词。 分词的目的是要把我们的文本数据分割成可搜索的最小单元,也就是词。这里我们主要针对英语,因为中文的分词涉及到自然语言处理,比较复杂,而英文基本只要用标点符号就好了。

下面我们看看分词的代码:

  1. def major_segments(s): 
  2.  """ 
  3.  Perform major segmenting on a string. Split the string by all of the major 
  4.  breaks, and return the set of everything found. The breaks in this implementation 
  5.  are single characters, but in Splunk proper they can be multiple characters. 
  6.  A set is used because ordering doesn't matter, and duplicates are bad. 
  7.  """ 
  8.  major_breaks = ' ' 
  9.  last = -1 
  10.  results = set() 
  11.  # enumerate() will give us (0, s[0]), (1, s[1]), ... 
  12.  for idx, ch in enumerate(s): 
  13.  if ch in major_breaks: 
  14.  segment = s[last+1:idx] 
  15.  results.add(segment) 
  16.  last = idx 
  17.  # The last character may not be a break so always capture 
  18.  # the last segment (which may end up being "", but yolo)  
  19.  segment = s[last+1:] 
  20.  results.add(segment) 
  21.  return results 

主要分割

主要分割使用空格来分词,实际的分词逻辑中,还会有其它的分隔符。例如Splunk的缺省分割符包括以下这些,用户也可以定义自己的分割符。

  • ] < > ( ) { } | ! ; , ' " * s & ? + %21 %26 %2526 %3B %7C %20 %2B %3D -- %2520 %5D %5B %3A %0A %2C %28 %29
  1. def minor_segments(s): 
  2.  """ 
  3.  Perform minor segmenting on a string. This is like major 
  4.  segmenting, except it also captures from the start of the 
  5.  input to each break. 
  6.  """ 
  7.  minor_breaks = '_.' 
  8.  last = -1 
  9.  results = set() 
  10.  for idx, ch in enumerate(s): 
  11.  if ch in minor_breaks: 
  12.  segment = s[last+1:idx] 
  13.  results.add(segment) 
  14.  segment = s[:idx] 
  15.  results.add(segment) 
  16.  last = idx 
  17.  segment = s[last+1:] 
  18.  results.add(segment) 
  19.  results.add(s) 
  20.  return results 

次要分割

次要分割和主要分割的逻辑类似,只是还会把从开始部分到当前分割的结果加入。例如“1.2.3.4”的次要分割会有1,2,3,4,1.2,1.2.3

  1. def segments(event): 
  2.  """Simple wrapper around major_segments / minor_segments""" 
  3.  results = set() 
  4.  for major in major_segments(event): 
  5.  for minor in minor_segments(major): 
  6.  results.add(minor) 
  7.  return results 

分词的逻辑就是对文本先进行主要分割,对每一个主要分割在进行次要分割。然后把所有分出来的词返回。

(编辑:核心网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

热点阅读