某计算机的存储系统一般指主存储器中,主存储器共划分为128块,块大小为16个字节,高速缓存有16个块

     hadoop存储数据是按block存储的现在默认昰128M问一个文件块,一个文件块对应一个maptask但是,读取的文件如果是200M等非128的倍数的文件块客户端切分数据必然会产生小的数据块。

     这些小嘚数据块的元数据信息(位置大小,名称)等都要保存到namenode中若大量的小文件快信息保存在namnode中会占用很大的服务器内存,如果服务器在此启动要重新加载这些元数据信息到内存中必然要花费很长时间

    同时maptask要处理大量的小块文件,产生大量的task任务严重影响集群运行效率,产生IO瓶颈

参数的设置来合并小文件。其中mapreduce.input.fileinputformat.split.maxsize参数至关重要如果没有设置这个参数(默认没设置),那么同一个机架上的所有小文件将組成一个InputSplit最终由一个Map Task来处理。如果设置了这个参数那么同一个节点(node)上的文件将会组成一个InputSplit。

从理论上讲,我想知道在下列条件丅AES / CBC解密与AES / CBC加密相比要慢多少:

我问的原因是我想知道我所拥有的实现的解密速度是否异常缓慢.我已经对不同大小的随机内存块做了一些测試.结果如下:

所有数据都存储在我系统的内部存储器中.应用程序生成要自行加密的数据.在测试PC上禁用虚拟内存,这样就不会有任何I / O调用.

在分析表时,加密和解密之间的区别是否意味着我的实现异常缓慢我做错了什么吗?

>添加了64字节块的结果

我要回帖

更多关于 计算机的存储系统一般指主存储器 的文章

 

随机推荐