儿童游乐场的安全网

三分钟的技术,我探索了六年

把域控制器网络运用到单位局域网,大约是七年前,当时买了一本大部头的书,用了两个多月才啃完,没摸着门道,又在淘宝廉价买了视频,买了头戴式耳机,下班后若不回家,就把耳机套在头上刷视频,大热天的十分黏糊,通勤时就用手机带着入耳耳机听,因预算不足,又因数据量增长快,我对重复数据删除功能特别上心。

说是重复数据删除,实际上叫重复数据压缩更确切,跟外行同事说重复数据删除,他们听到删除都会不无疑虑地追问是否安全。其原理很简单。把大文件分解成若干的小块,然后对比小块,若重复则只留一个,其余的删掉并做个指针指向,也就是快捷方式,因为同种类型的文件,小块的重复度还是很大的,于是可以节约很多空间。

一个10T的硬盘,可以存14T的数据。自然是牺牲点处理器性能,换取存储空间的节省。

现在无论是界面操作,还是命令行操作,我都能在五分钟内做好,然后等待处理完成做个检查。想当初学习视频和实践操作的时候,不少于两个星期了。这中间的时间对比,现在想来十分奇妙,掌握一项技术,起早贪黑,到处碰壁,用了两个星期,到如今几分钟就可以应用自如。

这里说的是重复数据删除的压缩功能。

我以为我掌握了精髓。这六年来,我一直这么过来的。却发现一个问题。应用了重复数据删除的功能的磁盘无法自动回收,即若一个磁盘到达警戒线变红了,我即便是全部删除了数据,也不见可用空间变大。比如一个10T的硬盘,存放四个部门的共享数据,后来满了,我把两个部门的数据转移出去,空间并没有释放。

最近服务器空间又紧张,我例行服务器维护时,看到了一些最佳实践的提示。说每个月最好进行重复数据删除的清理和垃圾回收作业。这是什么鬼?我在大脑中打了一个问号,随后的几天这个问题一直在脑子里,跑步时走路时都盘旋着。我遍历了互联网所有资料内容,没有找到方法。

破茧而出的飞蛾01
破茧而出的飞蛾01

网上介绍的很皮毛,也许云空间的发展让服务器运维变得简单和傻瓜,也许科班出身的高手不以为这是问题,或者,只是我寻找的方向和搜索的方法不对。不管怎样,我放弃了借鉴他者的思路,转而从命令行开始研究。不敢在服务器上试验,只好自己搭建了个环境,用了三天的时间,掌握了技巧,写了个简单的脚本,用了一天应用到任务计划程序里。

当我在一个服务器里运用成功之后,我在另一个服务器里运用,只用了不到五分钟就完成了。

四天时间,五分钟时间。对比是如此强烈。

我一度怀疑我是不是傻。我一直在重复数据删除的功能里打转,一直同压缩打交道,同清理和垃圾回收背对背六年,每每擦肩而过,就不曾回首。窗户纸那么薄,薄的几乎透过光亮,我就是视而不见。突破自己的认知盲区就这么困难吗?或者如剃刀原理说的满足于现状,进而习以为常?

六年了,孩子都可以上小学了。

六年都是这么过来的,10T的数据满了,我没办法回收,只好转移数据,格式化后在转移回来,还要在下班之后操作,防止影响其他同事的工作,这六年来我都是用这种笨办法走过来的。

可就在那刹那。刹那间观察到了一个很小的细节,进而锲而不舍地追寻,最后找到了。

破茧而出的飞蛾02
破茧而出的飞蛾02

若没有这个刹那。是否还有另外一个六年等着我?

或者这个刹那,为什么不是前面这六年的某个时间点?

找到的过程也是充满艰辛。这几天若不是硬着头皮推掉了一些工作,或者假设我只是没有耐心去探索,也可能放弃。那么在前面的六年里,每次磁盘满了,用持续半月的时间转移时,我是否也曾像如今这么探索过?当时只是过早的放弃了吗?

我似乎在沙漠里挖一口井。我永远不知道当下的这一铲子能否挖出水来。

只有挖出水来的那一铲子,只有发现价值之后,回过头来再看,才能知道其意义。为什么会这样?为什么是这样?今天下午写工作总结,内容少的可怜,我想把这次突破写的详实一点,以期体现这次突破对提升效率的重大意义,可是只能写出一句话,中间插个逗号都显得多余。

我无法说服我自己,这突然的转身我等了六年,这五分钟的操作,我学习它用了四天。

这件事情对我打击挺大的。你根本不知道你不掌握的技术和知识藏在哪里,她似乎就在你身边萦绕不休,当你伸手去抓时确实一场空,似乎只能是守株待兔,唯一能控制的,当兔子过来时,身手敏捷点,抓的更紧点。

以上。献给如此蠢笨的自己。

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注