当前位置: 首页 > news >正文

网站创建服务公司网络推广推广外包服务

网站创建服务公司,网络推广推广外包服务,无线昆明官方网站,国外有什么网站做游戏搜索是大数据领域里常见的需求。Splunk和ELK分别是该领域在非开源和开源领域里的领导者。本文利用很少的Python代码实现了一个基本的数据搜索功能#xff0c;试图让大家理解大数据搜索的基本原理。布隆过滤器 #xff08;Bloom Filter#xff09;第一步我们先要实现一个布隆… 搜索是大数据领域里常见的需求。Splunk和ELK分别是该领域在非开源和开源领域里的领导者。本文利用很少的Python代码实现了一个基本的数据搜索功能试图让大家理解大数据搜索的基本原理。布隆过滤器 Bloom Filter第一步我们先要实现一个布隆过滤器。布隆过滤器是大数据领域的一个常见算法它的目的是过滤掉那些不是目标的元素。也就是说如果一个要搜索的词并不存在与我的数据中那么它可以以很快的速度返回目标不存在。让我们看看以下布隆过滤器的代码class Bloomfilter(object):        A Bloom filter is a probabilistic data-structure that trades space for accuracy    when determining if a value is in a set.  It can tell you if a value was possibly    added, or if it was definitely not added, but it cant tell you for certain that    it was added.        def __init__(self, size):        Setup the BF with the appropriate size        self.values  [False] * size        self.size  size     def hash_value(self, value):        Hash the value provided and scale it to fit the BF size        return hash(value) % self.size     def add_value(self, value):        Add a value to the BF        h  self.hash_value(value)        self.values[h]  True     def might_contain(self, value):        Check if the value might be in the BF        h  self.hash_value(value)        return self.values[h]     def print_contents(self):        Dump the contents of the BF for debugging purposes        print self.values基本的数据结构是个数组实际上是个位图用1/0来记录数据是否存在初始化是没有任何内容所以全部置False。实际的使用当中该数组的长度是非常大的以保证效率。利用哈希算法来决定数据应该存在哪一位也就是数组的索引当一个数据被加入到布隆过滤器的时候计算它的哈希值然后把相应的位置为True当检查一个数据是否已经存在或者说被索引过的时候只要检查对应的哈希值所在的位的TrueFasle看到这里大家应该可以看出如果布隆过滤器返回False那么数据一定是没有索引过的然而如果返回True那也不能说数据一定就已经被索引过。在搜索过程中使用布隆过滤器可以使得很多没有命中的搜索提前返回来提高效率。我们看看这段 code是如何运行的bf  Bloomfilter(10)bf.add_value(dog)bf.add_value(fish)bf.add_value(cat)bf.print_contents()bf.add_value(bird)bf.print_contents()# Note: contents are unchanged after adding bird - it collidesfor term in [dog, fish, cat, bird, duck, emu]:    print {}: {} {}.format(term, bf.hash_value(term), bf.might_contain(term))结果[False, False, False, False, True, True, False, False, False, True][False, False, False, False, True, True, False, False, False, True]dog: 5 Truefish: 4 Truecat: 9 Truebird: 9 Trueduck: 5 Trueemu: 8 False首先创建了一个容量为10的的布隆过滤器然后分别加入 ‘dog’‘fish’‘cat’三个对象这时的布隆过滤器的内容如下然后加入‘bird’对象布隆过滤器的内容并没有改变因为‘bird’和‘fish’恰好拥有相同的哈希。最后我们检查一堆对象’dog’, ‘fish’, ‘cat’, ‘bird’, ‘duck’, ’emu’是不是已经被索引了。结果发现‘duck’返回True2而‘emu’返回False。因为‘duck’的哈希恰好和‘dog’是一样的。分词下面一步我们要实现分词。 分词的目的是要把我们的文本数据分割成可搜索的最小单元也就是词。这里我们主要针对英语因为中文的分词涉及到自然语言处理比较复杂而英文基本只要用标点符号就好了。下面我们看看分词的代码def major_segments(s):        Perform major segmenting on a string.  Split the string by all of the major    breaks, and return the set of everything found.  The breaks in this implementation    are single characters, but in Splunk proper they can be multiple characters.    A set is used because ordering doesnt matter, and duplicates are bad.        major_breaks       last  -1    results  set()     # enumerate() will give us (0, s[0]), (1, s[1]), ...    for idx, ch in enumerate(s):        if ch in major_breaks:            segment  s[last1:idx]            results.add(segment)             last  idx     # The last character may not be a break so always capture    # the last segment (which may end up being , but yolo)        segment  s[last1:]    results.add(segment)     return results主要分割主要分割使用空格来分词实际的分词逻辑中还会有其它的分隔符。例如Splunk的缺省分割符包括以下这些用户也可以定义自己的分割符。] ( ) { } | ! ; , ‘ ” * \n \r \s \t ? %21 %26 %2526 %3B %7C %20 %2B %3D — %2520 %5D %5B %3A %0A %2C %28 %29def minor_segments(s):        Perform minor segmenting on a string.  This is like major    segmenting, except it also captures from the start of the    input to each break.        minor_breaks  _.    last  -1    results  set()     for idx, ch in enumerate(s):        if ch in minor_breaks:            segment  s[last1:idx]            results.add(segment)             segment  s[:idx]            results.add(segment)             last  idx     segment  s[last1:]    results.add(segment)    results.add(s)     return results次要分割次要分割和主要分割的逻辑类似只是还会把从开始部分到当前分割的结果加入。例如“1.2.3.4”的次要分割会有12341.21.2.3def segments(event):    Simple wrapper around major_segments / minor_segments    results  set()    for major in major_segments(event):        for minor in minor_segments(major):            results.add(minor)    return results分词的逻辑就是对文本先进行主要分割对每一个主要分割在进行次要分割。然后把所有分出来的词返回。我们看看这段 code是如何运行的for term in segments(src_ip 1.2.3.4):        print termsrc1.21.2.3.4src_ip311.2.3ip24搜索好了有个分词和布隆过滤器这两个利器的支撑后我们就可以来实现搜索的功能了。上代码class Splunk(object):    def __init__(self):        self.bf  Bloomfilter(64)        self.terms  {}  # Dictionary of term to set of events        self.events  []        def add_event(self, event):        Adds an event to this object         # Generate a unique ID for the event, and save it        event_id  len(self.events)        self.events.append(event)         # Add each term to the bloomfilter, and track the event by each term        for term in segments(event):            self.bf.add_value(term)             if term not in self.terms:                self.terms[term]  set()            self.terms[term].add(event_id)     def search(self, term):        Search for a single term, and yield all the events that contain it                # In Splunk this runs in O(1), and is likely to be in filesystem cache (memory)        if not self.bf.might_contain(term):            return         # In Splunk this probably runs in O(log N) where N is the number of terms in the tsidx        if term not in self.terms:            return         for event_id in sorted(self.terms[term]):            yield self.events[event_id]Splunk代表一个拥有搜索功能的索引集合每一个集合中包含一个布隆过滤器一个倒排词表字典和一个存储所有事件的数组当一个事件被加入到索引的时候会做以下的逻辑为每一个事件生成一个unqie id这里就是序号对事件进行分词把每一个词加入到倒排词表也就是每一个词对应的事件的id的映射结构注意一个词可能对应多个事件所以倒排表的的值是一个Set。倒排表是绝大部分搜索引擎的核心功能。当一个词被搜索的时候会做以下的逻辑检查布隆过滤器如果为假直接返回检查词表如果被搜索单词不在词表中直接返回在倒排表中找到所有对应的事件id然后返回事件的内容我们运行下看看吧s  Splunk()s.add_event(src_ip 1.2.3.4)s.add_event(src_ip 5.6.7.8)s.add_event(dst_ip 1.2.3.4) for event in s.search(1.2.3.4):    print eventprint -for event in s.search(src_ip):    print eventprint -for event in s.search(ip):    print eventsrc_ip  1.2.3.4dst_ip  1.2.3.4-src_ip  1.2.3.4src_ip  5.6.7.8-src_ip  1.2.3.4src_ip  5.6.7.8dst_ip  1.2.3.4是不是很赞更复杂的搜索更进一步在搜索过程中我们想用And和Or来实现更复杂的搜索逻辑。上代码class SplunkM(object):    def __init__(self):        self.bf  Bloomfilter(64)        self.terms  {}  # Dictionary of term to set of events        self.events  []        def add_event(self, event):        Adds an event to this object         # Generate a unique ID for the event, and save it        event_id  len(self.events)        self.events.append(event)         # Add each term to the bloomfilter, and track the event by each term        for term in segments(event):            self.bf.add_value(term)            if term not in self.terms:                self.terms[term]  set()                        self.terms[term].add(event_id)     def search_all(self, terms):        Search for an AND of all terms         # Start with the universe of all events...        results  set(range(len(self.events)))         for term in terms:            # If a term isnt present at all then we can stop looking            if not self.bf.might_contain(term):                return            if term not in self.terms:                return             # Drop events that dont match from our results            results  results.intersection(self.terms[term])         for event_id in sorted(results):            yield self.events[event_id]      def search_any(self, terms):        Search for an OR of all terms        results  set()         for term in terms:            # If a term isnt present, we skip it, but dont stop            if not self.bf.might_contain(term):                continue            if term not in self.terms:                continue             # Add these events to our results            results  results.union(self.terms[term])         for event_id in sorted(results):            yield self.events[event_id]利用Python集合的intersection和union操作可以很方便的支持And求交集和Or求合集的操作。运行结果如下s  SplunkM()s.add_event(src_ip 1.2.3.4)s.add_event(src_ip 5.6.7.8)s.add_event(dst_ip 1.2.3.4) for event in s.search_all([src_ip, 5.6]):    print eventprint -for event in s.search_any([src_ip, dst_ip]):    print eventsrc_ip  5.6.7.8-src_ip  1.2.3.4src_ip  5.6.7.8dst_ip  1.2.3.4总结以上的代码只是为了说明大数据搜索的基本原理包括布隆过滤器分词和倒排表。如果大家真的想要利用这代码来实现真正的搜索功能还差的太远。所有的内容来自于Splunk Conf2017。大家如果有兴趣可以去看网上的视频。视频Slides来源naughty my.oschina.net/taogang/blog/1579204
http://www.pierceye.com/news/31730/

相关文章:

  • 网站开发与应用专业做网站一般什么问题
  • 寿光网站建设优化iis5.1 建立网站
  • 做寂网站广告运营具体是做什么
  • 做网站主机几个配件溧水区住房城乡建设局网站
  • 俄罗斯网站模版制作网站参考
  • 新网站多久收录网站建设开发感悟
  • 著名的设计企业网站购物网站建设图标大全
  • 有域名 如何免费建设网站广州旅游网站建设设计
  • 不会代码可以做网站维护吗长春一般建一个网站需要多少钱
  • 建设网站需要哪些备案上海贸易公司注册
  • 微信公号嵌入网站开发个人网站建设的要点
  • wordpress 模版 cho's在线seo短视频
  • 网站内容丰富设计网站排行榜前十名
  • app与网站的区别是什么佛山市住房和城乡建设管理局网站
  • 海西州住房建设局网站四川建筑设计公司排名
  • 如何做律所网站公司做网络宣传哪个网站比较好
  • 不备案的网站可以做竞价吗淘宝客网站免费建站
  • 缘魁上海网站建设聊城wap网站建设
  • 电子商务网站建设与管理第二版答案权重查询入口
  • 网站百度快照更新莆田网站建设收费标准
  • 天津网站优化哪家最专业线下推广怎么做
  • 下载php做站的官方网站外贸网站建设和网站推广要怎么做
  • 网页创建网站权威发布的含义
  • 胶南网站建设公司婚纱摄影网站设计论文
  • 淄博网站建设培训班自己做网站大概需要多少钱
  • 免费logo设计的网站网络推广竞价外包
  • vi视觉设计报价网络优化大师
  • 做网站设计都做些什么产品设计师网站
  • 互联网站开发wordpress 添加评论
  • 义乌网站制作多少钱江门网站设计找哪家