安装了这个TinyDB库后,我突然想到一般来说python执行的速度并不算高,那这个库写文件速度如何呢?
测试代码如下:
from tinydb import TinyDB
import time
# 创建数据库对象
db = TinyDB('db.json')
milliseconds1 = int(time.time() * 1000)
db.insert({'type': 'apple', 'count': 7})
milliseconds2 = int(time.time() * 1000)
print('use time (ms)')
print(milliseconds2 - milliseconds1)
执行结果发现
use time (ms)
10
看,一次简单的插入,居然要10毫秒,这真是令人发指的缓慢!
同样的逻辑用php实现一下看看
$start_time = microtime(true);
$data = [
"_default" => [
"type" => 'apple',
'count' => 7
]
];
file_put_contents("./db.json", json_encode($data));
$end_time = microtime(true);
echo 'use time(ms) ' . (($end_time - $start_time) * 1000);
执行结果 use time(ms) 0.18191337585449
然后再测试一下查数据的速度。
先往里面插入1万条数据,然后再查一条看看。
代码如下:
from tinydb import TinyDB, Query
import time
# 创建数据库对象
db = TinyDB('db.json')
for i in range(1, 10001):
db.insert({'type': 'apple', 'count': i})
milliseconds1 = int(time.time() * 1000)
Fruit = Query()
db.search(Fruit.count == '800')
milliseconds2 = int(time.time() * 1000)
print('use time (ms)')
print(milliseconds2 - milliseconds1)
执行结果一看
use time (ms)
7
需要7毫秒
使用php验证一下速度,代码如下:
$start_time = microtime(true);
$content = file_get_contents("./db.json");
$content = json_decode($content, true);
foreach ($content['_default'] as $key => $value) {
if ($value['count'] == '800') {
break;
}
}
$end_time = microtime(true);
echo 'use time(ms) ' . (($end_time - $start_time) * 1000);
执行结果 use time(ms) 3.3478736877441
感觉还是php快啊!
当然了上面我用python创建1万条数据的时候是循环插入的,可以不这样做,这样做很慢,可以采用另外的一个方法 insert_multiple 看这里
就相当于先做一个多维数组,然后一次性插入多条。
还有这个 update_multiple 方法,按条件更新多条。
还有一个很不错的 upsert 方法,有则修改,无则插入,这里可以用一句老话来方便记忆: 有则改之,无则加勉
总结下来,这个库蛮好的,如果你不追求极致的效率,那你可以用这个库,能帮你少写不少代码呢。