失业期间。。。。。。。。。。。。。。。记录下
2023年计算机行业找工作地狱难度;
1 简历基本没人看;
2 已读未回;
3 简历都没看直接告诉你不合适;
4 能约面的很少
2022年9月从上家公司辞职,当时想着疫情有几年没回过老家了,所以回老家舒服的待了一个月,然后11月来北京刷新了下简历基本上没人主动联系,当时就感觉可能不太好找也没放在心上。就这样呆到2023年1月底。
从2023年2月开始重新温习java体系相关的、大数据相关的、实时计算等相关的东西,期间花了3周半的时间痛苦艰难的刷leetcode算法题150道,从中午睡起来开始刷到晚上10点左右。这期间基本没有主动投递简历几乎也没有接到招呼(除了一些低端的外包会主动联系)。这期间内心满脑子都是算法之类的,并没有太多焦虑感。
这几天过来知乎看看 越看心里憋的越慌 也没心思学下去了,为了发泄下在这里记录下
2023年3月开始主动投递,刚开始还挑一些投现在懒得仔细看,基本上随机挨个投,到今天刚接收到2个正式的面试邀约,希望我能面试成功吧,待遇什么的现在都没什么预期了。
我大概情况 普普通通人堆里吃瓜群众的一个,快40了,普通本科 上大学没好好学习找不上工作阴差阳错进了it行业,现在面临能不能找到工作的风险。
大厂呆过,搞过微服务 弄过大流量高并发 弄过大数据 实时计算 知识图谱之类的东西 ,这几天也胡思乱想过怎么能把手里的这些东西变现了或者弄点别的副业什么的
2023年3月9日
昨天晚上有点失眠,脑子里各种乱想,突然想起当时在某大厂听说他们自研的消息中间件单副本情况下就可以保证数据安全,性能比kafka高了30%,当时还以为他们吹牛逼也没在意,晚上想到kafka细节的时候突然觉得完全可以实现,从原理上梳理只需要保证写入速度比磁盘顺序写还快就可以实现,如果让我实现的话我可能会把写第二个副本改成写分布式缓存(相当于把其中一个副本用分布式缓存替代),然后在设计一套比kafka更紧凑的数据编码格式就完全可以实现比kafka性能更好,欢迎讨论。
----------------------------------------------------
今天找了个spark视频,2倍速跳着看完,明天去一个北京那头一个做知识图谱的小公司面试,本来想准备准备相关内容,想想还是算了临场发挥好了。里边涉及到的各种算法、理论体系我都不熟悉,当时也没有好好研究下相关的算法和理论,虽然在上家单位搞过一个图谱平台的商业落地,但也仅仅是工程方面的内容。
不知道为什么对这次失业以来第一次现场面试,除了觉得路程太远,心里没有一点点其它的想法,没有期待能成功也没有期待不能成功。
2023年3月10日
面试结果失败。
从北京的一头做地铁到另一头,第一次遇到了还有k出口的地铁站,出了地铁口发现那边的天气昏黄,像是回到了10多年前北京的天气。期间接到了面试公司人员的电话询问出发了没,又接到了前几天投递的另外一家公司hr面试邀约。
到了公司聊了几句才知道被网上的皮包公司给骗了,原来我面试的这家单位和网上标注的不是同一家,已在招聘网站投诉骗子公司。
给我介绍才知道面试的这家公司是一家做军工项目的公司,他们公司的图谱产品,数据平台之类的都是买的某厂的东西,单位里基本都是985/211的刚毕业不久的新手,想找个人带带怎么做图谱相关的东西。我明确告知我对图谱理论知识算法知识不熟悉,只是做个工程项目落地。期间给他们介绍了下图谱项目大概流程,项目整体架构设计之类的。
介绍完后问了一个场景 针对佩洛西访台问题怎么构建一套知识图谱,(当时我想我都说了我对这不熟,怎么构建这属于业务问题,而且一个偶发热点事件也能构建出来图谱?),大脑没什么思路,想了大概1分钟左右,心想既然没思路那就先把问题往上层先抽象了说。
按照时空维度构建。
时----时间。按照事件的前后时间处理。
空-空间。按照地理空间维度处理,比如 美国-> 北美-> 美洲-> 大西洋......地球村
按照这个思路瞎扯了一通,不知道他们信不信,反正我没做过。期间没注意他们是在我简历上还是在笔记上记录什么。姑且认为表扬了我一句吧 大意是我的落地能力比较强。
聊完这些后告诉我他们其实想找个精通图谱相关算法、知识建模的人,然后可能觉得叫我过来没几分钟结束不好意思,然后说我的大数据处理比较丰富,又叫来个女面试官,可能是主管大数据这一块的,随便和她泛泛聊了几句。
整体下来感觉 不像是在面试!
下来继续准备下周2个来之不易的面试机会。
上一篇:量子计算将如何改变我们的世界?
下一篇:互联网创业热门项目都有哪些?