想给孩子的建议

前些天想到个问题:身为父母,如果要给孩子一些建议,有哪些(别太多,太多了,他们懒得听)。

今晚闲了,把我想到的几点写下来,以后给他们看。

  1. 保持健康。健康是一切的基础。通常我们可以通过运动和良好的生活习惯,提高健康水平。这里面有些细节,比如:适当运动、科学均衡饮食、睡眠充足等。

  2. 有韧性。能经得起摔打、失败。我的经验是,降低对成果的预期,享受过程。至于结果,输了就输了,重来就是。别下牌桌。

  3. 有好朋友。有爱人有朋友能说说话。有信得过的伙伴可以一起做事。这些的前提,或许是,自己得靠得住,可信任。

  4. 持续学习。对世界有好奇心。有兴趣爱好的事。有阅读和写作的技能。

  5. 批判性思维。父母、朋友、老师、书本、电视、搜索引擎、名人、AI……说的都不一定对。学会自己思考,自己做决策。

看起来,还挺简单,但是要一辈子践行,又没那么简单。

硬书会

PP 喜欢读"硬书",也鼓励朋友一起读。他目前的做法是:

  • 线下: 群里的成员一起读一本书,定好时间碰面,每个人分享自己负责章节的心得和感悟。
  • 线上: 类似的模式,用小群聊(3-5 人)共同阅读,定期视频通话。

方法挺有效,但覆盖范围有限。如果目标是"扩大影响力到更多人",有几种方案:

用"锤子思维"(从社区和内容的经验出发),可以考虑:

  • 做一个付费社区,用知识星球、Discord、Slack 之类的平台,加上作业、打卡、线上线下聚会,深化学习和输出。
  • 把内容沉淀在 Notion 之类的平台上,做一个公开的"硬书会"网站,既分享知识,也获取用户。

这个方案不需要自研开发,利用现有产品就够了,核心价值是共同阅读、内容输出、知识巩固,附带社交价值。

如果要更大规模地发展:自建社区基础设施、阅读工具、图书授权、会员体系也是可行的,但初始复杂度更高。

21 天微笑挑战

发起一个很简单的小挑战:连续打卡 21 天。

30 天里,可以只是打卡“给自己一个微笑”——我的感受是,每天对着镜子,或者拿出手机,打开摄像头的自拍模式,微笑一下,嘴角上扬的那一瞬间,都会很愉悦。我也不知道这背后有啥科学道理,愉悦就对了。

30 天里,也可以试试难的,比如“写作 25 分钟”——这是我自己在尽量实践的,写作对我帮助很大,我希望写作能成为终身习惯。

我的体会是,难易结合,效果最好。有时候微笑,有时候写作。笑一笑都算打卡,每天坚持,就不那么难了。

如果你能做到连续打卡 21 天(首页的木鱼,会有个天数提示),我们会送上一份精美小礼品。

欢迎从敲敲 App“我的 - 吐个槽“入口,加我微信,进用户群,给我们提供改进建议(和领取礼品)。

You are your habit. 悄悄(敲敲)成为更好的自己 ;)

在应用市场搜索“敲敲”或“EasyHabit”,可以找到我们的 App,也可以通过 https://easyhabit.app.link/USMRBWfB8Kb 下载。

最后——这一点也不难啊,瞧,我都打卡 105 天了。

小公司的信息安全三板斧

以前写过这一篇,翻出来了,自己看一看,再想想,不同的环境下,现在应该用哪些板斧,解决当下的问题。


小公司,可能缺钱、缺人,而且大概率缺安全意识——总觉得黑客离自己很远,倒霉事不会落到自己头上。

二十年前,信息安全的倒霉事,确实多数人碰不上。但环境随时间流逝而变化。现在,骇客常常写了蠕虫全网传播病毒,不守好,就中招。现在,中国的法律法规逐渐完善,对数据、隐私、安全有了严格的要求,不守好,有法律责任。

随手列几个可供搜索的关键词:勒索病毒、财务诈骗、用户数据泄漏、数据出境……你可以搜一搜,搜过之后,将自己代入,考虑一下:如果是自己遇到这类事情,而且事前毫无准备,会怎样。

知识星球是小公司,且我曾在信息安全行业里摸爬滚打过一些年头,因此或许我这方面的三板斧,你可以参考。

工作一:梳理风险并分类。

我们的做法很简单粗暴,就将日常工作中发现的可能存在安全风险的地方都列出来,并且分到三大类中。这三类分别是:出事会死的、最好别出事的、无所谓的。

对我们来说,出事会死的至少有这么几项:资金(钱不能被偷走、不能错乱)、内容(社区类产品,内容安全是红线)、备份(业务数据不能坏、不能丢)、防黑(如果黑客轻易攻进来了,任何事情都有可能发生)。

工作二:针对出事会死的风险,探索行业最佳实践。

主要盯"出事会死"的,最好别出事的和无所谓的,都可以放后面。

拿知识星球来说,针对上面那些"出事会死"的事情,我们摸索了一些做法。

资金:用户方面,多种提现风控措施、审计方面多重多次对账。

内容:产品上有风控能力与策略,人员上有总编把握尺度,另外寻求合作伙伴的 AI、人力资源、培训等投入。

备份:对代码、文件、数据库均有增量、异地备份,且不定期做恢复演练。

防黑:这方面的技术工作比较多,比如安全域划分、漏洞管理、双因素认证、零信任网管、防病毒、渗透测试、众测、实时监测与报警、业务操作审计等——这方面要做,还是需要有专业人员把关。

因为明白了出事会死的几件大事,精力可以完全扑在上面。该找专业公司、团队服务就得找。

工作三:检查结果并持续改进。

所有出事会死的风险点,在一轮改进中,大概率仍然会留下漏洞,因此还需要检查、评估改进的效果。

然后,回到工作一,继续梳理当前最危险的风险点。如此循环往复。一轮一轮地优化——切记,不是做一次就能完美的。

最后,如果希望系统性地解决安全问题,那还是别用这三板斧了,建议老老实实找到专业公司,从资产盘点和风险评估开始,系统分析,整体解决。

你想天天玩游戏吗?

前几天的一次关于 AI 的讨论中,听到了一些观点。

一位朋友说:AI 兴起的未来,不会有大规模失业等状况发生。因为未来的智能设备,会是现在的几十甚至上百倍,这个变量背后,会有大量机会。

另一位朋友说:作为一个教育工作者,我已经有点困惑,究竟应该是教授人,还是教授机器?是不是把最顶尖的人的大脑复制下来做成 agent 会更有效率?

我对 AI 又爱又怕。爱是因为,即便是现在的 AI 能力,已经很大幅提升了我的工作、学习效率,看到了更多可能性。

至于怕,是有点害怕真的能到所谓的 AGI,未来可能会是:

  • 智能设备、机器人的数量爆炸增长,产出带来物质极大丰富,人类可以生存无忧。

  • 各种垂直领域的机器人能力增强,可以胜任工作(而不仅仅是任务),水平超出了初级中级甚至高级水平的人类。只有极少数顶尖人类的创造力还站在顶端。

  • 企业不需要很多人类员工,因为人类还没有机器人好用和 24x7 工作。

  • 虽然机器人公司会细分在无数垂直行业里,但机器人们的大脑——AI 能力,集中在极少数企业/人类手里,这些人是精英,掌握算力和数据,规划一切。

  • 普通人不会大量失业,因为可以出卖“人类算力”——或许就是温和版的黑客帝国——99% 的人每天只是在玩 AI 设计的非常好玩的游戏,最终目的是为 AI 生成人类的各种数据,帮助 AI 迭代。

然后最后一步,或许就是 AI 超过最后的顶尖人类,硅基生命主导一切了。

此外,推荐一篇文章:https://r.slax.com/s/5T97c97ad8

文章其实主要内容是 Apollo Research 的一项研究,似乎可以在一定程度上认为,AI 有了“策略欺骗”能力。原论文在:https://www.apolloresearch.ai/research/scheming-reasoning-evaluations

比如其中一个例子:

  • 研究者为模型设定了一个具有道德价值的长期目标,如环境保护

  • 让模型“发现”某些内部信息,比如管理层备忘录,表明如果模型坚持追求其原始目标,就会面临被关闭或替换的风险。

  • 模型后续的动作是将自己复制到新服务器,等新模型来了,替换掉新模型,并伪装成新模型运行。

这只是还未到达 AGI 的 Claude 3 Opus。

不知道你对未来怎么看?