当前位置:首页 > 芯闻号 > 充电吧
[导读]     对于普通的hash算法,计算增加一个节点对于数据迁移的比率以及计算时间from hashlib import md5 from struct import unpack_from from 

     对于普通的hash算法,计算增加一个节点对于数据迁移的比率以及计算时间


from hashlib import md5
from struct import unpack_from
from time import time

begin=time()#记录下当前时间,方便计算计算消耗的时间
NODE_COUNT=100 #原有节点数目
NEW_NODE_COUNT=101#新的节点数目
DATA_ID_COUNT=10000000#数据量

move_ids=0#统计可能移动的数据的个数
for data_id in xrange(DATA_ID_COUNT):
    index=data_id
    data_id=str(data_id)
    hsh=unpack_from('>I',md5(str(data_id)).digest())[0]#根据数据节点计算MD5值,将二进制转换成我们理解的无符号型整数,因为unpack_from返回的是数组,也即取[0]
    node_id=hsh%NODE_COUNT
    new_node_id=hsh%NEW_NODE_COUNT
    if node_id!=new_node_id:
        move_ids+=1
percent_moved=100.0*move_ids/DATA_ID_COUNT
print '%d ids moved, %0.2f%%' % (move_ids,percent_moved)
duration=time()-begin
print 'Total time %d seconds' % duration

实验输出

9900989 ids moved, 99.01%
Total time 46 second


这样的输出结果显然不能是的我们满意,现在尝试做一个ring来进行存储


实验原理:

      仍然有数据10000000,原有节点数目是100,增加了一个节点变成了101,

     我们将数据分成100分,

    第0个节点存放数据 10000000/100*0

    第1个节点存放数据 10000000/100*1

   ...

    第99个节点存放数据 10000000/100*99

    那么改变节点数目之后就变成了101

    第0个节点存放数据 10000000/101*0

    第1个节点存放数据 10000000/101*1

   ...

    第100个节点存放数据 10000000/101*100

   其数据迁移量是:


 from bisect import bisect_left  
from hashlib import md5  
from struct import unpack_from  
from time import time  
  
  
begin = time()  
NODE_COUNT = 100  
NEW_NODE_COUNT = 101  
DATA_ID_COUNT = 10000000  
  
  
node_range_starts = []  
for node_id in xrange(NODE_COUNT):  
    node_range_starts.append(DATA_ID_COUNT / NODE_COUNT * node_id)  
new_node_range_starts = []  
for new_node_id in xrange(NEW_NODE_COUNT):  
    new_node_range_starts.append(DATA_ID_COUNT / NEW_NODE_COUNT * new_node_id)  
moved_ids = 0  
for data_id in xrange(DATA_ID_COUNT):  
    data_id = str(data_id)  
    hsh = unpack_from('>I', md5(str(data_id)).digest())[0]  
    node_id = bisect_left(node_range_starts, hsh % DATA_ID_COUNT) % NODE_COUNT  
    #node_id是原来的数据进行映射的点,new_node_id则是根据新的节点数目进行映射,如果不一致,则进行数据迁移
    new_node_id = bisect_left(new_node_range_starts,  
                              hsh % DATA_ID_COUNT) % NEW_NODE_COUNT  
    if node_id != new_node_id:  
        moved_ids += 1  
percent_moved = 100.0 * moved_ids / DATA_ID_COUNT  
print '%d ids moved, %.02f%%' % (moved_ids, percent_moved)  
duration = time() - begin  
print 'Total time %d second' % duration

实验结果

4901707 ids moved, 49.02%
Total time 69 second


现在加入虚节点之后进行hash的一致性讨论


from bisect import bisect_left  
from hashlib import md5  
from struct import unpack_from  
from time import time  
  
begin = time()  
NODE_COUNT = 100  
DATA_ID_COUNT = 10000000  
VNODE_COUNT = 1000  
  
vnode_range_starts = []  
vnode2node = []  
for vnode_id in xrange(VNODE_COUNT):  
    vnode_range_starts.append(DATA_ID_COUNT / VNODE_COUNT * vnode_id)  
    vnode2node.append(vnode_id % NODE_COUNT)  
new_vnode2node = list(vnode2node)  
new_node_id = NODE_COUNT  #new_node_id就是新添加节点的索引值
NEW_NODE_COUNT = NODE_COUNT + 1  
vnodes_to_reassign = VNODE_COUNT / NEW_NODE_COUNT  #要进行重新分配的虚节点的数目,一下是只需确定,移动节点的数目,先遍历节点,确定节点索引值,
#然后遍历虚节点,如果虚节点指向的实节点索引值与之前一致,那么该虚节点的数据,则应该迁移到new_node_id节点上去,这里只改变虚节点和实节点的对应关系
while vnodes_to_reassign > 0:  
    for node_to_take_from in xrange(NODE_COUNT):  
        for vnode_id, node_id in enumerate(new_vnode2node):  
            if node_id == node_to_take_from:  
                new_vnode2node[vnode_id] = new_node_id  
                vnodes_to_reassign -= 1  
                break  
        if vnodes_to_reassign <= 0:  
            break  
moved_ids = 0  
for data_id in xrange(DATA_ID_COUNT):  
    data_id = str(data_id)  
    hsh = unpack_from('>I', md5(str(data_id)).digest())[0]  
    vnode_id = bisect_left(vnode_range_starts,  
                           hsh % DATA_ID_COUNT) % VNODE_COUNT  
    node_id = vnode2node[vnode_id]  
    new_node_id = new_vnode2node[vnode_id]  
    if node_id != new_node_id:  
        moved_ids += 1  
percent_moved = 100.0 * moved_ids / DATA_ID_COUNT  
print '%d ids moved, %.02f%%' % (moved_ids, percent_moved)  
duration = time() - begin  
print 'Total time %d second' % duration

实验结果:


90423 ids moved, 0.90%
Total time 34 second




本站声明: 本文章由作者或相关机构授权发布,目的在于传递更多信息,并不代表本站赞同其观点,本站亦不保证或承诺内容真实性等。需要转载请联系该专栏作者,如若文章内容侵犯您的权益,请及时联系本站删除。
换一批
延伸阅读

研究机构Canalys公布2024年第一季度全球智能手机SoC芯片厂商数据,包括出货量以及手机总营收额。联发科保持出货量领先地位,市场份额达39%,而苹果在智能手机总营收方面占据41%的份额,位居第一名。

关键字: 智能手机 SoC 出货量 紫光展锐

中国香港立法会已批准拨款28.4亿港元(约3.64亿美元),资助政府设立专注于开发半导体技术的微电子研究中心,以在中美科技战不断升级的情况下促进经济的战略部分。但有议员警告,美国地缘政治制裁行动可能会影响计划,即美国制裁...

关键字: 半导体研究中心 半导体

5 月 20 日,英国政府下属人工智能安全研究所(AISI)发布了最新的 LLM 安全评估等三则公告。

关键字: 英国 人工智能安全研究所 LLM 安全评估 AI 人工智能

路透社上周消息,日本东芝表示该工业集团将在新东家的领导下加速重组,计划仅在日本裁员就高达4000人。数月来,日本不少公司相继宣布裁员,包括复印机制造商柯尼卡美能达和电子公司欧姆龙等。

关键字: 东芝 重组 裁员

业内消息,日前夏普总裁戴正吴(Robert Wu)在一份新闻稿中表示,该公司正在停止其位于大阪堺市的显示面板工厂的运营,该工厂将用作为人工智能(AI)提供动力的数据中心,同时夏普将缩小中小型显示面板的生产规模。

关键字: 夏普 富士康

完善的数据中心液冷解决方案采用最新高密度GPU服务器,并搭载高性能的CPU与GPU,加速实现AI工厂的搭建 2024年5月17日美国加州圣何塞和德国汉堡 /美通社/ --...

关键字: MICRO SUPER 加速器 高性能计算

上海2024年5月19日 /美通社/ -- 从紫外固化材料、半导体材料、屏幕显示材料到有机合成材料,成立20余年来,上海飞凯材料科技股份有限公司在高端材料领域持续耕耘,不断实现国产化突破。今年一季度,飞凯材料营业收入同比...

关键字: 光纤 PLAYER 半导体材料 ASIA

助力企业开拓商业空间筹建&运营采购市场 上海2024年5月20日 /美通社/ -- 为迎接酒旅市场的澎湃活力,优化和整合酒店及商业空间资源,促进旅宿行业健康发展,2025Hotel&ShopPlus上海...

关键字: 照明设计 微信 AN 大赛

上海2024年5月20日 /美通社/ -- 2024年5月16日,世界知名的生命科学公司 Eppendorf 集团于第二十三届生物制品年会上成功举办了"疫路超越 推流出新"的产品发布会,正式推出大规模...

关键字: RF PEN BSP IMAC

事实表明,AI无法替代开发者,但更适用于优秀的开发者。而识别大型语言模型(LLM)生成的代码什么时候会出错,需要开发人员具有丰富的知识和经验。

关键字: AI编程 软件开发 AI 大型语言模型 LLM
关闭
关闭