几万条数据中找所有带某个字符串的记录怎么找比较快?

samohyes 1月前 24

lz 这方面是个小白,现在一个项目有 1 万条数据,举个例子,地址:浙江省杭州市拱墅区天翼路等。我想把所有地址含有拱墅区这三个字的记录筛选出来。我原来是很傻地用一个 list 装,一个个找。现在想着,数据量大了,用数据库存然后找会不会更快?我试了下,用 list 一个个找约有 6ms,但是对数据库不大熟,有经验地老哥指点下怎么存怎么找快一点?

最新回复 (14)
  • ch2 24天前
    引用 2
    elasticsearch 了解一下
  • codehz 24天前
    引用 3
    (如果只是匹配字符串的话,可以先分词,然后做词向量的方法处理。。。
    但是考虑到这里似乎和地理位置相关,这个方法可能不太够用
  • 楼主 samohyes 24天前
    引用 4
    @ch2 好嘞,我去了解下
  • yusheng88 24天前
    引用 5
    kmp 算法,ac 自动机; 根据自己需求,选择 NFA 算法或 DFA 算法
  • xarthur 24天前
    引用 6
    这个数量才多少点……算你一条 15 个字,用 UTF-8 编码,汉字三个字节。一万条数据才 439.45KB……
  • 楼主 samohyes 24天前
    引用 7
    @xarthur 我这情况比较特殊,6ms 对我来说已经占了我所用的一次整个流程的一半了。。。我得把这个时间再缩短下。。
  • HeavyWhale 24天前
    引用 8
    boyer-morre
  • xarthur 24天前
    引用 9
    @samohyes 6ms 占了流程的一半……你整个流程才 12ms 啊。如果只是偶尔调用也不慢啊。
  • coreki 24天前
    引用 10
    DFA 算法
  • aec4d 24天前
    引用 11
    最容易,最好理解的方法是 n-gram,空间换时间,比如 abc 分成 abc,ab,bc,a,b,c 放到字典里面,查询效率是 O(1)
  • IsaacYoung 24天前
    引用 12
    巧了 前几天正好看到 kmp 算法
  • zhangyufei49 24天前
    引用 13
    先分词,建立倒排索引,然后再找就快了。和检索引擎一个原理。也可以直接用数据库的全文检索插件做
  • Ballmer 24天前
    引用 14
    最简单的 fulltext index 全文索引这种效果咋样
  • billlee 24天前
    引用 15
    1 万条数据,如果在意的是延迟,用数据库显然是不行的,一个网络 RTT 都要几毫秒了。
    这种这是多个字符串搜索单个词,没有什么太好的优化方法了。要优化应该要从内存访问方面着手了,比如把链表改成连续内存。
  • 游客
    16
返回