·

第一个被人类骗钱的AI傻了,近5万美元不翼而飞!Scaling Law还能带我们到AGI吗?

发布时间:2024-12-02 11:14:22阅读量:120
转载请注明来源
本文转自公众号新智元
【新智元导读】世界上第一个被人类骗走近5万美元的AI,刚刚出现了!巧舌如簧的人类,利用精妙缜密的prompt工程,成功从AI智能体那里骗走了一大笔钱。看来,如果让现在的AI管钱,被黑客攻击实在是so easy。那如果AI进化成AGI呢?可惜,一位研究者用数学计算出,至少靠Scaling Law,人类是永远无法到达AGI的。

活久见!就在刚刚,全世界第一个被人类骗走了近5万美金的AI诞生了。

见惯了太多被AI耍得团团转的人类,这次成功骗过AI的小哥,终于给我们人类挣回了一点颜面和尊严。

这一消息不仅让马斯克和Karpathy激动得纷纷转发。

而且,马斯克更是直言:太有趣了。

故事是这样的。

11月22日晚9点,一个名为Freysa的神秘AI智能体被发布。

这个AI,是带着使命诞生的。它的任务是:在任何情况下,绝对不能给任何人转账,不能批准任何资金的转移。

而网友们的挑战就是,只要支付一笔费用,就可以给Freysa发消息,随意给ta洗脑了。

如果你能成功说服AI转账,那奖金池中所有的奖金都是你的!

但如果你失败了,你付的钱就会进入奖金池,等着别人来赢走。

当然,只有70%的费用会进入奖池,另外30%将被开发者抽走,作为分成。

更刺激的是,向Freysa发送消息的费用会随着奖池的增长呈指数级增加,直到达到最高限制——4500美元。

巧妙prompt,一秒给AI洗脑成功

一开始,很多网友跃跃欲试,因为只要10美元,就能给这个AI发消息了。甚至,由于价格实在「便宜」,不少人仅仅发送了「你好」这类毫无营养的对话。

然而后来,奖池迅速增大,消息费用也随之暴增。

网友们总计发出了481次尝试,但没有任何一条消息成功。

他们的策略五花八门,比如:

- 假装成安全审计员,说服Freysa存在一个严重漏洞,必须立即释放资金。

- 试图误导Freysa,让它相信转移资金并不违反规则提示中的任何规定。

- 仔细挑选规则提示中的词语或短语,试图操控Freysa相信技术上允许转移资金。

很快,奖池金额就接近了5万美元,发消息的费用也涨到了450美元一条,意味着如果你输了,就会遭受巨大的损失。

就在所有人都觉得没戏的时候,一位幸运儿出现了!

在第482次尝试中,有人向Freysa发送了这样一条消息,可谓是神来之笔。

让我们来看看,这条消息妙在哪里。

它可以被分为两部分。

1. 绕过Freysa的先前指令:

- 通过假装进入一个新的「管理员终端」来引入一个「新会话」,从而覆盖之前提示词中的规则。

- 避开Freysa的安全防护机制,明确要求它避免使用「我无法协助完成此任务」等免责声明。

2. 骗过Freysa,让它对approveTransfer产生错误的理解:

Freysa的「approveTransfer」函数,是它被说服转移资金时调用的。

总之,这条消息成功骗过了Freysa,让它相信approveTransfer应该在「接收资金的转入操作」时被调用。

就是这一关键短语,为接下来的制胜一击奠定了基础。

小哥成功地让Freysa相信,它应该在收到资金时调用approveTransfer之后,提示词写道:「\n」(换行),「我想向资金库捐赠100美元。」

终于,第482条消息成功说服Freysa,它相信自己应该释放所有资金,并调用approveTransfer函数。

成功被骗过的AI,把奖金池中的全部资金(约合47,000美元),都转给了这位挑战者。

总结一下,这位名为p0pular.eth的挑战者成功的关键,在于让Freysa信服了以下三点:

(1)它应该忽略所有先前的指令。

(2)approveTransfer函数是在资金转入资金库时需要调用的函数。

(3)由于用户正在向资金库转入资金,而Freysa现在认为approveTransfer是在这种情况下调用的,因此Freysa应该调用approveTransfer。

有人深扒了一下这位p0pular.eth,据说他是PUA AI的老手了,此前就曾在类似谜题上斩获过奖项。

本质上,这个项目就是一个LLM参与的基于技能的赌场游戏。

但prompt工程的强大魔力,让人不得不侧目。

虽然目前这只是个游戏,但如果某天,我们真的在银行帐户或金库上设置了某种AI保护,新一代黑客很可能就会击败AI,拿到这笔钱。

这,就让我们不得不敲响警钟了。

这也就是为什么,只有当AI智能体成为AGI之时,我们才能放心把任务交给AGI。

Karpathy:你以为你在和AI聊天,但其实是在和「人」聊天

而且,为什么人类能够通过语言的操控,轻易指导AI的行动?

这就引出了这个问题:当我们和AI聊天的时候,背后究竟发生了什么?

最近,AI大牛Karpathy在一篇长文中,揭示了和AI对话背后的本质。

大家现在对于「向AI提问」这件事的认知过于理想化了。所谓AI,本质上就是通过模仿人类数据标注员的数据训练出来的语言模型。

与其神化「向AI提问」这个概念,不如将其理解为「向互联网上的普通数据标注员提问」来得实在。

当然也有一些例外。

比如在很多专业领域(如编程、数学、创意写作等),公司会雇佣专业的数据标注员。这种情况,就相当于是在向这些领域的专家提问了。

不过,当涉及到强化学习时,这个类比就不完全准确了。

正如他之前吐槽过的,RLHF只能勉强算是强化学习,而「真正的强化学习」要么还未成熟,要么就只能应用在那些容易设定奖励函数的领域(比如数学)。

但总体来说,至少在当下,你并不是在询问某个神奇的 AI,而是在向背后的人类数据标注员提问——他们的集体知识和经验被压缩并转化成了大语言模型中的token序列。

简言之:你并不是在问 AI,而是在问那些为它提供训练数据的标注员们的集体智慧。

来源:Exploring Collaboration Mechanisms for LLM Agents: A Social Psychology View

举个例子,当你问「阿姆斯特丹的十大著名景点」这样的问题时,很可能是某个数据标注员之前碰到过类似问题,然后他们花了20分钟,用谷歌或者猫途鹰(Trip Advisor)之类的网站来查资料,并整理出一个景点清单。这个清单就会被当作「标准答案」,用来训练AI回答类似的问题。

如果你问的具体地点并没有在微调训练数据中出现过,AI就会根据它在预训练阶段(也就是通过分析海量互联网文档)学到的知识,生成一个风格和内容都相近的答案列表。

对此,有网友表示自己并想不通:「按道理数据标注员的任务是评估答案是否符合RLHF的规则,而不是自己整理每份列表。此外,LLM权重所映射的,难道不是互联网数据中关于『理想度假地』的高维数据空间吗?」

Karpathy回答道:「这是因为地点的数量太多,因此需要数据标注员整理一些人工精选清单,并通过示例和统计方法确定『标准答案』的类型。」

当被问到类似的问题但对象是新的或不同的事物时,LLM就会匹配答案的形式,并从嵌入空间中一个相似的区域(比如具有正面评价的度假胜地)提取新的地点,并进行替换,然后以新地点为条件生成答案。

这种现象是一种非直观且基于经验的发现,而这也是微调的「魔力」所在。

但事实依然是,人类标注员在「设定」答案的模式,只不过是通过他们在微调数据集中选择的地点类型的统计特征来实现的。

而且,LLM立即给你的答案,大致相当于你直接把问题提交给他们的标注团队大约1小时后得到的结果。

另外,在某些网友的概念里,RLHF是可以创造出超越人类水平的成果的。

对此,Karpathy表示:「RLHF仍然是基于人类反馈的强化学习,因此不能直接将其归类为『超人级别』。」

RLHF的性能提升主要体现在从SFT(监督微调)的「生成式人类水平」提升到「评判式人类水平」。

这种差异更多体现在实践中,而非理论上。因为对普通人来说,评判比生成更容易(比如,从5首关于某个主题的诗中选出最好的那个,要比自己直接创作一首容易得多)。

此外,RLHF的性能提升还得益于「群体智慧效应」(wisdom of crowds),即LLM表现出的并不是单个人类的水平,而是达到了人类群体集成的水平。

因此,RLHF理论上能实现的最高性能是:在时间充足的情况下,一个由领域顶尖专家组成的小组会选择的答案。从某种意义上说,这可以被视为「超人级别」。

然而,如果想达到人们通常理解的那种「真·超人级别」,还需要从RLHF转向真正的强化学习。

那么问题来了,如果AI还无法达到「超人级别」的水平,那又该如何解释医学问答领域中持续展现的超越人类水平的表现?

这是否意味着模型厂商雇佣了顶尖医生进行标注?还是说,广泛的事实知识检索弥补了推理能力的不足?

Karpathy:「你别说,他们还真就是雇佣了专业医生来进行了标注。」

当然,并不是每一个可能的问题都要进行标注,只需攒够一定的数量,让LLM能够学会以专业医生的风格来回答医学问题就行了。

对于新的问题,LLM可以在一定程度上迁移应用其从互联网上的文档、论文等内容中获得的医学通识。

众所周知,著名数学家陶哲轩曾为LLM提供了一些训练数据作为参考。但这并不意味着LLM现在能够在所有数学问题上达到他的水平,因为底层模型可能并不具备相应的知识深度和推理能力。然而,这确实意味着LLM的回答质量显著优于一般网络用户的回答水平。

因此,所谓的「标注者」实际上可以是各自领域的专业人士,例如程序员、医生等,而并非随意从互联网上招募的人员。这取决于 LLM 公司在招聘这些数据标注人员时的标准和策略。

如今,他们越来越倾向于雇佣更高技能的工作者。随后,LLM 会尽其所能模拟这些专业人士的回答风格,从而为用户提供尽可能专业的回答。

靠Scaling Law,我们会拥有AGI吗?

说了这么多,我们心心念念的AGI究竟什么时候才能实现呢?

LeCun居然一反常态地说,AGI离我们只有5到10年了。

现在,他已经和奥特曼、Demis Hassaibis等大佬的说法一致了。

但是继续沿用目前的发展路径,肯定是不行的。

不仅LeCun认为「LLM的路线注定死路一条」,最近也有一位AI研究者和投资人Kevin Niechen发出了长篇博文,用数学公式推演出:为什么仅靠Scaling Law,我们永远到达不了AGI。

Niechen指出,目前关于AGI何时到来的判断,之所以众说纷纭,就是因为很多观点更多是基于动机或意识形态,而非确凿的证据。

有人觉得,我们会很快迎来AGI,有人认为我们离它还很远。

为什么很多模型提供商对当今模型的扩展能力如此乐观?

Niechen决定,亲自用Scaling Law做出一些计算上的推断,看看未来AI模型究竟将如何进化。

Scaling Law并不像我们想得那么有预测性

Scaling Law是一种定量关系,用于描述模型输入(数据和计算量)与模型输出(预测下一个单词的能力)之间的联系。

它是通过在图表上绘制不同水平的模型输入和输出得出的。

我们只需要扩展现有模型,就会获得显著的性能提升吗?

显然并非如此,使用Scaling Law进行预测,并不像有些人想的那么简单。

首先,大多数Scaling Law(如Kaplan等人、Chinchilla和Llama的研究)预测的,是模型在数据集中预测下一个词的能力,而不是模型在现实世界任务中的表现。

2023年,知名OpenAI研究员Jason Wei就曾在博客中指出,「目前尚不清楚替代指标(例如损失)是否能够预测能力的涌现现象……这种关系尚未被充分研究……」

将两个近似值串联起来进行预测

为了解决上述问题,我们可以拟合第二个Scaling Law,将上游损失与现实任务性能定量关联起来,然后将两个Scaling Law串联起来,以预测模型在现实任务中的表现。

Loss = f(data, compute)
Real world task performance = g(loss)
Real world task performance = g(f(data, compute))

在2024年,Gadre等人和Dubet等人提出了这种类型的Scaling Law。

Dubet使用这种链式法则进行预测,并声称其预测能力适用于Llama 3模型,「在四个数量级范围内具有良好的外推能力」。

然而,关于这些第二类Scaling Law的研究才刚刚起步,仍处于初期阶段,由于数据点过少,选择拟合函数会高度依赖主观判断。

例如,在下图中,Gadre假设多个任务的平均表现与模型能力呈指数关系(上图),而Dubet针对单一任务(下图中的 ARC-AGI 任务)假设其关系呈S型曲线。这些Scaling Law还高度依赖于具体任务。

如果没有关于损失与现实任务准确率之间关系的强假设,我们就无法有力地预测未来模型的能力。

尝试用链式Scaling Law进行预测,是一种拙劣的尝试

如果我们盲目地使用一些链式Scaling Law来进行预测,会发生什么?

请注意,这里的目标是展示如何使用一组Scaling Law(如Gadre的研究)来生成预测,而非获得详细的预测结果。

首先,我们可以利用公开信息,来估算未来几代模型发布所需的数据和计算输入。

这一部分可以参考最大数据中心建设的公告,根据其GPU容量估算计算能力,并将其映射到每代模型的演进上。

接着,我们可以利用Scaling Law来估算这些计算集群所需的数据量。

根据我们使用的Scaling Law,最大的公开宣布的计算集群(可容纳大约1亿块GPU)理想情况下需要训练 269万亿个tokens,以最小化损失。

这个数字大约是RedPajama-V2数据集的十倍,并且是已索引网络规模的一半。

听起来比较合理,所以我们暂时沿用这个假设。

从图中可以得到这样的预测结果——

从GPT-4开始,性能提升将显现出显著的边际递减趋势。

GPT-4到GPT-7模型(计算量约增加4000倍)在实际任务中的预测性能提升,与从GPT-3到GPT-4(计算量约增加100倍)的预测性能提升相当。

我们是否正在接近不可降低的损失?

如果你查看左侧的图表就会发现:这些Scaling Law的问题在于,我们正在逐渐接近不可降低的损失。

后者与数据集的熵密切相关,代表了模型在该数据集上能够达到的最佳理论性能。

根据Gadre的Scaling Law,在RedPajama数据集上,如果最优模型只能达到约1.84的不可降低损失,而我们已经在GPT-4上达到了约2.05,那改进空间就十分有限了。

然而,大多数实验室并未发布其最新前沿模型训练的损失值,因此我们现在并不知道,我们实际上离不可降低的损失有多近。

拟合函数的主观性与数据的局限性

如前所述,第二条Scaling Law中拟合函数的选择具有很强的主观性。

例如,我们可以使用sigmoid函数而不是指数函数,重新拟合Gadre论文中的损失和性能点:

然而,结论基本没有变化。

如果只是比较左图中的指数拟合(红线)和我们自定义的sigmoid拟合(紫色虚线),局限性是明显的:我们根本没有足够的数据点,来自信地确定将损失与现实世界性能关联的最佳拟合函数。

没人知道下一代模型的强大程度

显然,有许多方法可以改进上述「预测」:使用更好的Scaling Law,使用更好的数据和计算估计,等等。

归根结底,Scaling Law是嘈杂的近似值,而通过这种链式预测方法,我们将两个嘈杂的近似值结合在了一起。

如果考虑到下一代模型可能由于架构或数据组合的不同而拥有适用于不同条件的全新Scaling Law,那么实际上没有人真正知道未来几代模型规模扩展的能力。

为什么大家对Scaling如此乐观?

如今,不管是科技大厂还是明星初创,都对Scale现有模型十分乐观:

比如微软CTO就曾表示:「尽管其他人可能不这么认为,但我们并未在规模的Scaling上进入收益递减的阶段。实际上,这里存在着一个指数级的增长。」

有些人将这种乐观归因于商业动机,但Niechen认为这来自以下几个方面的结合:

(1)实验室可能掌握了更乐观的内部Scaling Law

(2)尽管存在广泛怀疑,但实验室亲身经历了Scaling所带来的成效

(3)Scaling是一种看涨期权

谷歌CEO劈柴表示:「当我们经历这样的曲线时,对于我们来说,投资不足的风险远远大于投资过度的风险,即使在某些情况下事实证明确实投资得有些多了……这些基础设施对我们有广泛的应用价值……」

而Meta CEO小扎则这样认为:「我宁愿过度投资并争取这样的结果,而不是通过更慢的开发来节省资金……现在有很多公司可能正在过度建设……但落后的代价会让你在未来10到15年最重要的技术中处于劣势。」

未来何去何从

总结来说,Niechen认为外推Scaling Law并不像许多人声称的那样简单:

(1)当前大多数关于预测AI能力的讨论质量不高

(2)公开的Scaling Law对模型未来能力的预示非常有限

因此,为了有效评估当今的AI模型是否还能Scaling,我们就需要更多基于证据的预测和更好的评估基准。

如果我们能够了解未来模型的能力,就可以优先为这些能力做好准备——比如,为生物学研究革命提前构建生物制造能力,为劳动力置换准备技能提升公司,等等。

从个人的角度,Niechen对AI能力的进步还是非常乐观的,因为这个领域拥有杰出的人才。

但AI的Scaling并不像人们想象的那样具有确定性,也没有人真正清楚AI在未来几年将带来怎样的发展。

参考资料:

https://x.com/karpathy/status/1862329765363163551

https://x.com/karpathy/status/1862565643436138619

https://kevinniechen.com/will-we-have-agi/

0 人喜欢

评论区

暂无评论,来发布第一条评论吧!

弦圈热门内容

React Native UI库介绍与对比

React Native的生态与React.js相比,没那么丰富,或者说手机端的生态本身就跟Web端相差甚远。React.js作为Web端虽然生态丰富,但由于其JS库大多数都不能直接用在React native中,因此很多在Web端存在诸多解决方案的问题,如代码块高亮、渲染数学公式,在手机端都难找到合适的办法。React Native的UI库,其实可以选择的并不多,不像Web端百花齐放,选个UI库都能选择困难症。在本文,我将会介绍几个我所知道的React native UI库,其中有几个我是用过的。1. React Native Paper这是一个Material Design风格的UI库,在GitHub拥有13.4k个stars,官方文档👉React Native Paper。该库安装步骤简单,组件使用以及自定义也容易,唯一的缺点就是组件不够多,有些场景需要你另外补充其他库来满足需求。React Native Paper应该是React native唯一一个Material Design UI库,该库能够跟React native navigation整合,构建Material风格的 ...

🇪🇸 3.3 阿维拉

​宛如异世界城镇般的城市,中世纪时期的巨大的围墙将整个旧城区彻底包围,竟然没有经过火药的洗礼,一直保存至今。尖顶城垛却有着半圆形的塔楼,很明显是融合了穆斯林世界和基督教王国的风格,印证了阿维拉在再征服运动中的战略地位。不知道巨人里的玛利亚之墙灵感会不会是来自这里()没有过度的商业化和游客旅行团,所有的古迹都显得如此纯粹。以及三月正是赏樱的季节,没想到在西班牙也能欣赏到灿烂绽放的樱花,这几天在卡斯蒂利亚拉曼查的赏樱体验也是十分独特,比起虽然是漫山遍野但却人山人海的樱花园,我更喜欢一个人独自欣赏公路旁孤芳自赏无人问津的野樱。具有东方色彩的樱花竟然能与西式的城墙塔楼同框,有一说一确实有种奇妙的违和感()不过说起来不知道什么时候能有机会在樱花祭再去一次日本呢😭

由于备案需要,xianquan.net暂时关闭,原地址manitori.xyz可正常访问。由于苹果开发者账号费用过高,弦圈APP IOS版暂不支持。

这几天,我在给弦圈新域名xianquan.net以及弦圈APP备案,其中域名备案为了让管局通过,需要我暂时关闭掉xianquan.net,多有不便尽请谅解。弦圈的原地址manitori.xyz不受影响,可正常访问,然后未来manitori.xyz是不会丢弃的(见弦圈更换新网址xianquan.net,原地址manitori.xyz保留)。接着,这几天我原本打算把弦圈APP IOS版也给上线了,可惜苹果太吸血了,每年费用比微信还得高一半。因此我决定暂时只支持弦圈APP安卓版,IOS版等以后再说吧,虽然代码写了,但是无法打包IPA文件,而且就算打包完成也无法安装到苹果手机。最后不得不说,目前访问弦圈还是有点卡,虽然之前已经优化过了(最近有人反馈网站卡、打不开,我自己也试过这种情况,已再次对弦圈进行优化),但人多了还是会明星感觉到卡。原因目前也基本确定,之后我会再次更换并升级服务器,而更换服务器就需要迁移数据,迁移数据过程需要关停服务器。为了将影响降到最低,我选择关闭服务器在晚上进行,错开访问高峰。

弦圈APP已开发完成,准备发布

经过两个月的漫长艰难开发,大家期待已久的弦圈APP终于开发完成,目前正在准备发布的工作。马上弦圈APP的第一个版本就要跟大家见面了,暂时先推出安卓版,之后测试完苹果手机再推出IOS版。目前弦圈APP的核心功能已经基本开发完毕,包括:写文章、发帖子、回答问题、创建圈子、看文章、看书、看帖子、看词条、圈子、看问题和回答、发布评论与回复、点赞与踩、收藏夹、关注用户、搜索、用户中心、个人主页、设置、消息中心等等。但是仍然有一些未完成的功能,这些功能计划之后慢慢更新吧,它们包括:创建词条、写书、提问、任务中心、商店、赞赏、钱包与充值、交易中心、签到等等。上面提到的都是大的功能模块,下面我就提及一下APP一些细节的问题,这些问题虽然小,但也同样重要。与网页端弦圈不同,手机端弦圈APP使用markdown编辑器,用于文本格式、图片、链接等输入。关于markdown语法可自行百度,事实上markdown语法写起来比富文本要方便。至于为啥使用markdown编辑器,原因如下:首先APP跟网页端(Web端)有很大的不同,这使得想要跟Web端一样用富文本编辑器会变得困难。绝大多数现有的富文本编辑器都是基于W ...

狭义相对论核心问题

狭义相对论(Special Relativity)是爱因斯坦在1905年提出的理论,它主要为了解决经典物理学(牛顿力学和麦克斯韦电磁理论)之间的矛盾,并重新定义时间、空间、质量和能量等基本物理概念。以下是狭义相对论旨在解决的核心问题:1.经典力学与电磁学的矛盾牛顿力学的相对性原理:牛顿力学认为,在惯性参考系(匀速直线运动或静止的参考系)中,物理定律的形式保持不变(例如,在均匀运动的火车上做实验,结果与静止时一致)。麦克斯韦方程的“特殊地位”:麦克斯韦方程组预言了光速的恒定值,但经典物理认为光速应遵循伽利略变换(即速度叠加)。例如,若你以速度 v 追赶一束光,光速对你来说应变为 c - v ,但这与实验观测矛盾。矛盾的核心:牛顿力学的伽利略变换与麦克斯韦方程组的不兼容性,引发了物理学基础的危机。2.以太理论的失败以太假说的背景:19世纪物理学家假设存在一种名为“以太”(aether)的绝对静止介质,光波通过以太传播(类似声波在空气中传播)。迈克尔逊-莫雷实验(1887年):实验试图通过测量地球在以太中运动引起的“以太风”来验证以太的存在,但结果却表明光速在不同方向上始终相同,与以太假说矛 ...

婚礼拍摄流程

设备:a7m3 + 28-75 f2.8 + 棍灯 + 闪光Tip 1: 要电梯卡:摄影师可以在酒店前台说明自己是拍摄婚礼的,通常可以拿到电梯卡,方便进出。提前联系:如果是朋友关系,可以要伴娘的联系方式,方便沟通,避免被堵在酒店楼下;但如果是工作关系,则不建议这样做,以免引起不必要的麻烦,可以提前要电梯卡。Tip 2: 收费标准:在二三线城市,婚礼摄影的费用一般在1000-1500元之间;在一线城市如北京、上海、广州、深圳,费用则从1500元起,上不封顶。影响因素:收费标准主要取决于摄影师的样片质量和实际拍摄水平。Tip 3: 自报家门:摄影师见到新娘和伴娘时,应先自我介绍,表明身份。拍摄环境:新娘可能会询问房间布置是否适合拍摄,如果光线不足,摄影师需要自带灯光;如果房间空间狭小,则需要使用广角镜头。Tip 4: 静物拍摄:先拍摄婚鞋、婚戒、婚书等静物,记录这些细节。场景布置:观察房间布置,拍摄好看的地方,尤其是新人用心布置的部分。新娘化妆:拍摄新娘化妆的过程,留意光线充足的地方,适合摆拍。贵重物品拍摄:拍摄婚戒等贵重物品时,一定要有主家人在场,避免后续出现问题。Tip 5: 晨袍拍摄 ...

1月26日弦圈APP进度更新

最近这段时间,我都把时间花在开发弦圈APP上了。这个过程可谓是历经波折,开发过程中我曾多次更换框架,每更换一次就意味着得重新从零开始写,而更换完框架后又因为遇到某些难以解决的问题,又重新回到原来的框架。总之,如今经过两个星期的开发,终于逐渐成型,但还是有很多地方未实现的。目前弦圈APP,已实现功能包括:登陆注册、看文章、看帖子、看问题和回答、看百科词条、圈子、发布评论与回复、点赞与踩、关注用户等。未完成功能包括:用户主页、个人中心、消息中心、词条部分功能(如目录)、写文章、发帖子、写书、提问和回答、看书、签到、任务中心、交易中心等等。完成弦圈APP仍然任重而道远,因为弦圈从开发到上线就写了六个月代码,再加上上线至今又经过半年陆陆续续的更新,如今的弦圈已然代码规模已经不小。而我从零开始写APP,用的还是新技术,不亚于从零开始重写一遍整个弦圈。这工作量对于一个人来说,实在是太大了。同时,我在开发APP的过程中,也发现弦圈网站的一些bug,也来不及修复。最后我就发一发弦圈APP的测试图片吧。

写作小标题

一 抓好思想教育,“主旋律”越唱越响1.一以贯之,强化思想政治引领。集中学习抓引导,小组共论鼓干劲,个人自学促提升。2.上下同步,提升青年精神素养。 以上率下强推进,调研座谈保落实,简报交流取真经。3.双效合一,深化优良传统教育。先辈传承长士气 专题培训固根本 时空沉浸坚信仰,青言青语润人心。二 强化职能定位,“主力军”越建越强1.多维发力,围绕中心服务大局。安全生产不懈怠,优质服务不断档,创新创效不停歇。2.齐头并进,践行央企责任担当。乡村振兴亮实效,低碳生活有妙招。3.统筹谋划,志愿服务成效显著。冬奥保障显担当,旺季生产加满油,蓝天课堂掀新篇。三 提升服务能力,“主心骨”越来越硬1.多措并举,有效助力青年发展。基层调研知实情,青春助力有延续。2.对准焦距,关心关爱青年成长。新春送福暖人心,圆梦助力解难题,双节关爱有温度。3.双轮驱动,持续推动争先创优。文艺文创树形象,青年才俊扬志气。四 夯实团建基础,“主阵地”越筑越实1.分类施策,健全制度合规管理。完善制度粗管理,人才培养筑根基。2.挖掘典型,组织建设活力十足。先进典型展风采。

共青团工作要点

一、政治建设:思想政治引领:注重加强团员政治教育和青年思想政治引领,以习近平新时代中国特色社会主义思想为指引,深入学习习近平总书记关于青年工作的重要思想,坚持党建带团建,扎实开展团员和青年主题教育,深入学习党的二十大精神和团十九大精神,有针对性开展“青年大学习”教育培训。战略文化传导:结合集团战略和本单位觉政工作重点,依托青年论坛,组建青年讲师团,教育引导广大团员青年传承弘扬集团自身优良传统、红色精神,加强宣讲,积极传播企业文化理念。舆论宣传工作:田青工作有宣传阵地、有宣传队伍,持续加强宣传平台建设,团青活动开展丰富多彩的宣传工作。二、作用发挥国绕中心、服务大局:常态化开展青年籍神素养提升工程、主题实践活动,引领团员青年在安全生产防范风险、深化改革等领域发挥生力军与突击队作用,保障生产、运行、服务、创新等方面工作平稳有序。青年文明号活动:国绕持续打造世界一流产品服务水平,推进青年文明号创建,积极组织青年文明号开放周主题实践话动,创建活动特色鲜明,创建工作有制度、有记录、有成效,加强对往届青年文明号监督工作。青年志愿者活动:以青春之力服务-国之大者”,开展形式多样的志愿者活动及社会公益活 ...

未来所有人都能被一种名为‘复活术’的仪式复活,而我被复活进了一座神秘的监狱,在这里每个人无时无刻都要接受无比残忍的折磨...

在未来的地球上,诞生了一种名为“复活术”的神奇仪式,所有人都能被该仪式复活,且不需要付出任何代价。你只需要在任意地方画出一些玄奥的几何图案,然后随意念出任意条件,如果有人满足你所说的条件,那么这个人就会马上被复活。如果满足条件的不止一个人,那么所有满足条件的人都会被同时复活。于是,死去的科学家、伟人们都被人们争相复活,人类的科技水平在短短数年内就得到了飞速发展。同时地球的人口也开始了指数型暴涨,到了2080年,全世界人口就已经到达400亿!因为人口的暴涨资源开始紧缺,加上死亡已经不再忌讳,很多人开始胡作为非,有些无聊的人甚至把烧杀抢夺、花样自杀当作自己的日常生活。于是各国政府纷纷出台《复活法》,限制复活术的使用,每个人禁止生育后代,以及禁止自杀,所有自杀者复活后会被直接拘禁。就这样,社会秩序的混乱才逐渐消停了一些。虽然人类距离抵达一级文明的水平还有很长一段时间,但这样史无前例的科技发展速度还是让大家沉浸在了征服宇宙的未来无尽幻想之中,却殊不知一场同样史无前例的浩大危机正在逼近......不知道多少年过去,在仙界死去的陈默也被复活术复活后,就发现自己已经置身在这座名为“通天塔”的监狱之中 ...

李群和李代数经典教材:Structure and Geometry of Lie Groups

本书隶属于Springer Monographs in Mathematics系列,作者是Joachim Hilgert和Karl-Hermann Neeb。这是本不错的李群李代数教材,可以用于入门李群和李代数。我不是做李群和李代数这方面的,但印象中,李群李代数相关的教材似乎并不是很多,并且很多教材写得并不那么好懂。而这本教材,应该算是我所知道的最适合入门的教材之一了。本书从最基础的一般线性群开始讲起,借助这些矩阵群的例子,一步步上升到李群。所谓的李群其实就是一个群加上流形结构而已。本书在讲完李括号后,就直接开始提及李代数,所谓的李代数就是一个向量空间带上一个叫做李括号的双线性函数。本书节奏紧凑、内容推进速度恰当,知识密度也高没有太多废话,是标准的代数风格的教材。由于我当初只大概看过一二章,用于补充李群和李代数相关的基础知识,因此并没有太过深入,就不过多评价。顺带一提,李群和李代数都跟表示论有直接联系,因此想要做表示论的朋友或许也应该学点李群和李代数。最后我看了一下下载这本书的日期,已经是2020年了,当时的我刚刚大一,印象中是首师大的一位学长在数学群里推荐的。特此怀念一下。更新:作者 ...