Trie树

来源:互联网 发布:网上兼职淘宝客服招聘 编辑:程序博客网 时间:2024/05/16 18:57

Trie树(字典树)

方法介绍

1.1、什么是Trie树

Trie树,即字典树,又称单词查找树或键树,是一种树形结构。典型应用是用于统计和排序大量的字符串(但不仅限于字符串),所以经常被搜索引擎系统用于文本词频统计。它的优点是最大限度地减少无谓的字符串比较,查询效率比较高。

Trie的核心思想是空间换时间,利用字符串的公共前缀来降低查询时间的开销以达到提高效率的目的。

它有3个基本性质:

  1. 根节点不包含字符,除根节点外每一个节点都只包含一个字符。
  2. 从根节点到某一节点,路径上经过的字符连接起来,为该节点对应的字符串。
  3. 每个节点的所有子节点包含的字符都不相同。

1.2、wiki介绍

应用

trie树常用于搜索提示。如当输入一个网址,可以自动搜索出可能的选择。当没有完全匹配的搜索结果,可以返回前缀最相似的可能。

实现方式

trie树实际上是一个DFA,通常用转移矩阵表示。行表示状态,列表示输入字符,(行,列)位置表示转移状态。这种方式的查询效率很高,但由于稀疏的现象严重,空间利用效率很低。也可以采用压缩的存储方式即链表来表示状态转移,但由于要线性查询,会造成效率低下。

于是人们提出了下面两种结构。

  • 三数组Trie(Tripple-Array Trie)结构包括三个数组:base,next和check.
  • 二数组Trie(Double-Array Trie)包含base和check两个数组。base数组的每个元素表示一个Trie节点,即一个状态;check数组表示某个状态的前驱状态。
  • 详细wiki关于trie的介绍链接:trie

    1.3、树的构建

    咱们先来看一个问题:假如现在给你10万个长度不超过10的单词,对于每一个单词,我们要判断它出没出现过,如果出现了,求第一次出现在第几个位置。对于这个问题,我们该怎么解决呢?

    如果我们用最傻的方法,对于每一个单词,我们都要去查找它前面的单词中是否有它。那么这个算法的复杂度就是O(n^2)。显然对于10万的范围难以接受。

    换个思路想:

    • 假设我要查询的单词是abcd,那么在它前面的单词中,以b,c,d,f之类开头的显然不必考虑,而只要找以a开头的中是否存在abcd就可以了。
      • 同样的,在以a开头中的单词中,我们只要考虑以b作为第二个字母的,一次次缩小范围和提高针对性,这样一个树的模型就渐渐清晰了。

    即如果现在有b,abc,abd,bcd,abcd,efg,hii 这6个单词,我们可以构建一棵如下图所示的树:

    这里写图片描述

    如上图所示,对于每一个节点,从根遍历到他的过程就是一个单词,如果这个节点被标记为红色,就表示这个单词存在,否则不存在。

    那么,对于一个单词,只要顺着他从根走到对应的节点,再看这个节点是否被标记为红色就可以知道它是否出现过了。把这个节点标记为红色,就相当于插入了这个单词。

    这样一来我们查询和插入可以一起完成,所用时间仅仅为单词长度(在这个例子中,便是10)。这就是一棵trie树。

    我们可以看到,trie树每一层的节点数是26^i级别的。所以为了节省空间,我们还可以用动态链表,或者用数组来模拟动态。而空间的花费,不会超过单词数×单词长度。

    1.4、查询

    Trie树是简单但实用的数据结构,通常用于实现字典查询。我们做即时响应用户输入的AJAX搜索框时,就是Trie开始。本质上,Trie是一颗存储多个字符串的树。相邻节点间的边代表一个字符,这样树的每条分支代表一则子串,而树的叶节点则代表完整的字符串。和普通树不同的地方是,相同的字符串前缀共享同一条分支。

    下面,再举一个例子。给出一组单词,inn, int, at, age, adv, ant, 我们可以得到下面的Trie:

    这里写图片描述

    可以看出:

    • 每条边对应一个字母。
    • 每个节点对应一项前缀。叶节点对应最长前缀,即单词本身。
    • 单词inn与单词int有共同的前缀“in”, 因此他们共享左边的一条分支,root->i->in。同理,ate, age, adv, 和ant共享前缀”a”,所以他们共享从根节点到节点”a”的边。

    查询操纵非常简单。比如要查找int,顺着路径i -> in -> int就找到了。

    搭建Trie的基本算法也很简单,无非是逐一把每则单词的每个字母插入Trie。插入前先看前缀是否存在。如果存在,就共享,否则创建对应的节点和边。比如要插入单词add,就有下面几步:

    1. 考察前缀”a”,发现边a已经存在。于是顺着边a走到节点a。
    2. 考察剩下的字符串”dd”的前缀”d”,发现从节点a出发,已经有边d存在。于是顺着边d走到节点ad
    3. 考察最后一个字符”d”,这下从节点ad出发没有边d了,于是创建节点ad的子节点add,并把边ad->add标记为d。

    问题实例

    1、一个文本文件,大约有一万行,每行一个词,要求统计出其中最频繁出现的前10个词,请给出思想,给出时间复杂度分析

    提示:用trie树统计每个词出现的次数,时间复杂度是O(n*le)(le表示单词的平均长度),然后是找出出现最频繁的前10个词。当然,也可以用堆来实现,时间复杂度是O(n*lg10)。所以总的时间复杂度,是O(n*le)与O(n*lg10)中较大的哪一个。

    2、寻找热门查询

    原题:搜索引擎会通过日志文件把用户每次检索使用的所有检索串都记录下来,每个查询串的长度为1-255字节。假设目前有一千万个记录,这些查询串的重复读比较高,虽然总数是1千万,但是如果去除重复和,不超过3百万个。一个查询串的重复度越高,说明查询它的用户越多,也就越热门。请你统计最热门的10个查询串,要求使用的内存不能超过1G。

    提示:利用trie树,关键字域存该查询串出现的次数,没有出现为0。最后用10个元素的最小推来对出现频率进行排序。

    编码

    具体insert和search操作在wiki上都有了,比较简单。中文分词的词库是用的trie树结构的,把这个构建词库词典树的代码展示如下。

        /**     * 加载填充词典片段     *      * @param charArray     * @param begin     * @param length     * @param enabled     */    private synchronized void fillSegment(char[] charArray, int begin, int length, int enabled) {        // 获取字典表中的汉字对象        Character beginChar = new Character(charArray[begin]);        Character keyChar = charMap.get(beginChar);        // 字典中没有该字,则将其添加入字典        if (keyChar == null) {            charMap.put(beginChar, beginChar);            keyChar = beginChar;        }        // 搜索当前节点的存储,查询对应keyChar的keyChar,如果没有则创建        DictSegment ds = lookforSegment(keyChar, enabled);        if (ds != null) {            // 处理keyChar对应的segment            if (length > 1) {                // 词元还没有完全加入词典树                ds.fillSegment(charArray, begin + 1, length - 1, enabled);            }            else if (length == 1) {                // 已经是词元的最后一个char,设置当前节点状态为enabled,                // enabled=1表明一个完整的词,enabled=0表示从词典中屏蔽当前词                ds.nodeState = enabled;            }        }    }

    加载dict.txt词库文件:

        public static WordDictionary getInstance() {        if (singleton == null) {            synchronized (WordDictionary.class) {                if (singleton == null) {                    singleton = new WordDictionary();                    return singleton;                }            }        }        return singleton;    }    public void loadDict() {        _dict = new DictSegment((char) 0);        BufferedReader br = null;        try {            br = new BufferedReader(new InputStreamReader(new FileInputStream(MAIN_DICT), Charset.forName("UTF-8")));            long s = System.currentTimeMillis();            while (br.ready()) {                String line = br.readLine();                String[] tokens = line.split("[\t ]+");                if (tokens.length < 2)                    continue;                String word = tokens[0];                double freq = Double.valueOf(tokens[1]);                String nature = String.valueOf(tokens[2]);                total += freq;                word = addWord(word);                freqs.put(word, freq);                natures.put(word, nature);            }            // normalize            for (Map.Entry<String, Double> entry : freqs.entrySet()) {                entry.setValue((Math.log(entry.getValue() / total)));                minFreq = Math.min(entry.getValue(), minFreq);            }            System.out.println(String.format(Locale.getDefault(), "main dict load finished, time elapsed %d ms",                    System.currentTimeMillis() - s));        } catch (IOException e) {            System.err.println(String.format(Locale.getDefault(), "%s load failure!", MAIN_DICT));        } finally {            try {                if (null != br)                    br.close();            } catch (IOException e) {                System.err.println(String.format(Locale.getDefault(), "%s close failure!", MAIN_DICT));            }        }    }    private String addWord(String word) {        if (null != word && !"".equals(word.trim())) {            String key = word.trim().toLowerCase(Locale.getDefault());            _dict.fillSegment(key.toCharArray());//            System.out.println(key.toCharArray());            return key;        } else            return null;    }    public DictSegment getTrie() {        return this._dict;    }

    具体代码见我的github。

    搜索“矿”的结果:
    这里写图片描述

    0 0
    原创粉丝点击