gitweixin
  • 首页
  • 小程序代码
    • 资讯读书
    • 工具类
    • O2O
    • 地图定位
    • 社交
    • 行业软件
    • 电商类
    • 互联网类
    • 企业类
    • UI控件
  • 大数据开发
    • Hadoop
    • Spark
    • Hbase
    • Elasticsearch
    • Kafka
    • Flink
    • 数据仓库
    • 数据挖掘
    • flume
    • Kafka
    • Hive
    • shardingsphere
    • solr
  • 开发博客
    • Android
    • php
    • python
    • 运维
    • 技术架构
    • 数据库
  • 程序员网赚
  • bug清单
  • 量化投资
  • 在线查询工具
    • 去行号
    • 在线时间戳转换工具
    • 免费图片批量修改尺寸在线工具
    • SVG转JPG在线工具

标签归档chatgpt

精品微信小程序开发门户,代码全部亲测可用

  • 首页   /  
  • 标签: "chatgpt"
  • ( 页面2 )
提示词 3月 12,2023

利用chatgpt扩展写小说提示词运用实例

根据某段话来写一篇短篇小说,这段话是“双手抵在了电梯壁上。人再多,也没人能再碰撞到我了……他给我”。

在chatgpt或new bing中,输入以下话:

根据下面的内容,写一篇青春朦胧的爱情故事。“双手抵在了电梯壁上。人再多,也没人能再碰撞到我了......他给我”

以下是chatgpt生成的内容,看起来还是一篇质量不错的文章,真实惊讶chatgpt的文案写作能力。

双手抵在了电梯壁上。人再多,也没人能再碰撞到我了......他给我点了菜,全都是我喜欢吃的。他说他记得我每次和他一起吃饭时都会点什么。他说他想让我开心。

我们相识于一次聚会。那天晚上,他穿着一件白色衬衫,笑容灿烂。我们坐在同一张桌子上,聊得很投机。他告诉我他是一名律师,专门处理商业纠纷。他说他喜欢挑战和竞争。

我们交换了电话号码,并约定下次再见面。从那以后,我们就开始频繁地联系和约会。每次见面,他都会给我带来惊喜和温暖。有时候是一束鲜花,有时候是一张电影票,有时候是一本书。

我们之间没有明确的关系定义,也没有承诺或者保证。我们只是享受着彼此的陪伴和关怀。我们像恋人又像朋友,在这个快节奏的城市里寻找着属于自己的乐趣和安慰。

直到有一天,我收到了一个陌生女人的电话。她自称是他的妻子,并且质问我为什么要破坏她们的家庭。她说她已经知道了我们之间的事情,并且要求我立刻离开他。

原来,在这段感情朦胧的故事里,只有我一个人被蒙在鼓里。原来,在这个光鲜亮丽的男人身后,隐藏着一个不为人知的秘密。

我的心碎成千万片。
作者 east
chatgpt 3月 12,2023

如何使用chatgpt做自媒体赚钱及提问实例

ChatGPT是一款自然语言处理模型,可以生成自然流畅的语言,帮助你在自媒体领域提供更好的内容。

你可以利用ChatGPT做以下几件事:

利用ChatGPT生成文章或故事:你可以向ChatGPT提供主题、关键字或简要大纲,然后它将帮助你生成一个完整的、有意义的文章或故事。

利用ChatGPT回答读者提问:你可以使用ChatGPT回答读者在社交媒体或博客上留言或评论的问题,从而增强你的自媒体影响力。

利用ChatGPT生成标题和引言:标题和引言对于吸引读者很重要。 ChatGPT可以生成令人惊叹的标题和引言,以吸引读者的注意力。

搜素引擎会不会惩罚chatgpt生成的文章?

搜索引擎一般不会惩罚ChatGPT生成的文章,除非它们是抄袭或重复的内容。12

如果你想使用ChatGPT生成文章,你应该注意以下几点:

选择一个有趣和独特的主题,避免与其他人重复。

使用ChatGPT生成文章的大纲或初稿,然后根据自己的风格和需求进行修改和优化。

检查ChatGPT生成的内容是否符合事实、逻辑和语法,避免出现错误或不恰当的表达。

使用论文查重系统检测文章是否有抄袭或重复的部分,如果有,删除或改写它们。

注明文章中引用的来源和参考文献,尊重他人的知识产权。

​

假设你想写一篇介绍饺子机械设备的宣传文章,你可以这样操作:

在ChatGPT的输入框中输入以下内容:

我是一名饺子机械设备的销售人员,我想写一篇介绍我们公司产品的宣传文章,
要求如下:
– 文章标题:饺子机械设备,让你轻松做出美味饺子
– 文章长度:300字左右
– 文章内容:介绍我们公司的产品特点、优势和服务

点击“发送”按钮,等待ChatGPT生成文章。

查看ChatGPT生成的文章,并根据需要进行修改或补充。

以下是可能生成的文章:

饺子机械设备,让你轻松做出美味饺子

饺子是中国人最喜爱的食物之一,但是手工包饺子费时费力,而且效果不一定好。
如果你想快速方便地制作出美味可口的饺子,那么你就需要我们公司的饺子机械
设备。

我们公司专业生产各种规格和型号的饺子机械设备,可以满足不同客户的需求。
我们的产品有以下几个特点:

– 自动化程度高:只需将面团和馅料放入机器中,就可以自动完成和面、压皮、
包馅、成型等步骤,无需人工干预。
– 质量可靠:我们采用优质材料和先进技术制造我们的产品,保证了产品的耐用
性和稳定性。我们还通过了ISO9001质量管理体系认证和CE安全认证。
– 效率高速:我们的产品可以根据客户需求调节速度和产量,每小时可以制作出
数千个或数万个饺子。而且每个饺子都大小均匀、形状美观、口感好。
– 服务完善:我们提供免费上门安装、调试和培训服务,并提供一年内免费保修
和终身维护服务。如果您有任何问题或需求,我们都会及时响应并解决。

如果您对我们公司的产品感兴趣,请联系我们获取更多信息和报价。我们期待与
您合作,为您提供最优质的产品和服务。

作者 east
chatgpt 3月 12,2023

利用ChatGPT来学习数据库开发知识和解决疑问

ChatGPT在数据库开发方面有一些潜在的应用场景,例如:

  • 作为一个交互式的数据库查询工具,可以让用户用自然语言提出问题,并返回相应的SQL语句和查询结果。
  • 作为一个数据库设计助手,可以根据用户的需求和描述,生成合理的数据模型和表结构,并提供优化建议。
  • 作为一个数据库教学辅助,可以根据用户的水平和兴趣,提供适合的数据库知识、案例和练习,解决用户的疑问,并给出反馈和评价。

例如在数据库开发当中,对in子查询和left join的区别和应用场景不是很清楚,可以问ChatGPT。

问ChatGPT:什么场景用子查询in,什么场景用left join?

ChatGPT答:子查询in查出来的条数不一定和left join的左表条数一样多。这取决于子查询in的条件和left join的右表是否有重复或空值。如果您想统计两种方式的记录数,您可以使用count函数和group by语句。

问ChatGPT:请给我一个例子说明in和left join的区别。

ChatGPT答:好的,我来给您一个例子说明in和left join的区别。假设我们有两个表,一个是product,一个是sale,分别存储了产品的信息和销售记录。我们想要查询哪些产品没有被销售过。我们可以用子查询in来写这样的语句:

SELECT name, cost FROM product WHERE id NOT IN (SELECT product_id FROM sale);

这个语句会先从sale表中获取所有已经销售过的产品的id,然后从product表中筛选出不在这些id中的产品的名称和价格。

我们也可以用left join来写这样的语句:

SELECT name, cost FROM product LEFT JOIN sale ON product.id = sale.product_id WHERE sale.product_id IS NULL;

这个语句会先把product表和sale表按照id进行连接,然后从连接后的结果中筛选出那些没有对应的sale记录(即sale.product_id为空)的产品的名称和价格。

两种方式都可以得到相同的结果,但是left join可能更高效一些,因为它只需要扫描一次两个表,而子查询in需要扫描两次。

作者 east
深度学习 1月 30,2023

如何使用 ChatGPT 写文章

介绍

出于很多原因,写博客是有益的。 今天在本文中,我将向您展示如何使用来自 openAI 的新的高级 AI ChatGPt 撰写博客文章。 它是免费使用的,使用 ChatGPT 撰写文章所需的时间明显减少。 所以让我们深入探讨一下。

我们将逐步解决这个问题。 所以让我们开始吧

第 1 步:在 OpenAI 中创建一个帐户以访问该服务

创建一个帐户以访问 chatgpt。 它简单易行。 你可以注册使用谷歌。

第 2 步:访问 ChatGPT

转到左下角的 chatGPT 部分或标题中的 TRY 部分。 如果你成功了,你会看到这样的界面

第 3 步:搜索需求旺盛且竞争激烈的细分领域

如果您已经确定了要写的主题,那很好。 否则,您可以借助 vidIQ 等关键字搜索工具

在这里你可以找到高搜索量和低竞争的关键字,就像我找到的那样。 这个工具非常有用。

第4步:在chatgpt中搜索以提供有关关键字的博客标题

在那里。 chatgpt 已回复了 5 个关于您提供的关键字的博客标题。 选择其中一个来写一篇文章。

第 5 步:在 chatgpt 中搜索大纲

在搜索框中搜索“provide the outline for this title : Title”。

你可以看到回复。 它将恢复为 5-6 个轮廓。

第 6 步:搜索博客部分

搜索“提供此大纲的博客部分:大纲”

如您所见,它已通过博客部分作出回应。

现在将所有这些复制并粘贴到一个 .doc 文件中

对每个轮廓逐一重复第 5 步和第 6 步,然后按顺序粘贴到同一个 .doc 文件中。 一旦你复制并粘贴了所有的大纲和博客部分,你就可以进入下一步了

第七步:重写文章

转到 duplichecker 文章重写器

复制 ae 到目前为止复制和粘贴的 .doc 文件中的所有内容。 粘贴在中间的框中。 解决验证码并单击重写文章。

在右侧部分,您将获得一篇新改写的文章。 按下一步并通过单击复制按钮复制所有内容

粘贴回 .doc 文件以代替上一篇文章。

这是您新改写的文章。 这篇文章可能有一些拼写错误和字体问题。 修改它,我们很高兴。

第 8 步:GPT-2 输出检测器演示

您可以遵循的另一个步骤是您可以在此工具中检查是否存在抄袭。 您的文章有多少是真实的并且是从某处复制的。

第 9 步:发布

如果您已正确执行所有步骤,那么您可以继续在任何平台上发布您的文章。

作者 east
深度学习 1月 30,2023

ChatGPT 如何运行原理?AIGC 的演变过程

AIGC,即AI-generated Content,是一种利用人工智能进行内容创作的方式,被认为是继PGC(Professionally-generated Content)和UGC(User-generated Content)之后的一种新型内容创作方式。 AIGC在文字、图片、音视频、软件开发等多个领域发展迅速,近几年也有很多专注于AIGC的创作体验平台,用户输入一句话,让AI合成一张与之相关的图片 描述,或者更常见的是,输入一篇文章的描述,或者只是一个故事的开头,然后让 AI 为您完成文章。 它在任何需要写作或内容创建的地方都有广泛的应用,例如编写财务报告、开发代码或创建销售/营销材料。 它可以帮助人们更快地理解和分析复杂的信息,从而帮助他们做出更好的决策并产生巨大的价值。 由于技术的进步,这些提高生产力的愿景正在成为现实。

RNN Seq2Seq

长期以来,AIGC 一直以基于 RNN 的 Seq2Seq 模型为主,该模型由两个 RNN 网络组成,第一个 RNN 是编码器,第二个 RNN 是解码器。 RNN Seq2Seq 生成的文本质量通常较差,常伴有语法错误或语义不明,主要是错误传递和放大造成的。

RNN Seq2Seq

2017 年,Transformer 模型结构被引入,并因其能够捕获复杂的特征表示以及与 RNN 模型相比提高了训练效率而迅速受到欢迎。 由此开发出一系列预训练模型,成为AIGC的领先技术。 下一节将概述这些模型。 Transformer 模型特别有用,因为它可以并行处理序列,导致文本编写算法研究的重点转向 Transformer 模型。

                Transformer 模型体系

UniLM

UniLM,Unified Language Model的简称,是微软研究院于2019年开发的生成式BERT模型。与传统的Seq2Seq模型不同,它只利用了BERT,没有Decoder组件。 它结合了其他几种模型的训练方法,例如 L2R-LM (ELMo, GPT)、R2L-LM (ELMo)、BI-LM (BERT) 和 Seq2Seq-LM,因此称为“Unified”模型。

UniLM 模型架构(来源)

UniLM的预训练分为三个部分:Left-to-Right、Bidirectional和Seq-to-Seq。

这三种方式的区别仅在于Transformer的mask矩阵的变化:

对于Seq-to-Seq,前一句的Attention被masked用于后一句,使得前一句只能关注自己而不能关注后一句; following sentence中的每个单词对其后续单词的Attention被masked,只能关注其之前的单词;

对于Left-to-Right,Transformer的Attention只关注词本身和它前面的词,不关注它后面的词,所以mask矩阵是一个下三角矩阵;

对于 Bidirectional,Transformer 的 Attention 关注所有的词,包括 NSP 任务,就像原始的 BERT 一样。

在 UniLM 预训练过程中,这三种方法中的每一种都训练了 1/3 的时间。 与原始BERT相比,增加的单向LM预训练增强了文本表示能力,增加的Seq-to-Seq LM预训练也使得UniLM在文本生成/编写任务中表现良好。

UniLM的预训练分为三个部分:Left-to-Right、Bidirectional和Seq-to-Seq。

这三种方式的区别仅在于Transformer的mask矩阵的变化:

对于Seq-to-Seq,前一句的Attention被masked用于后一句,使得前一句只能关注自己而不能关注后一句; following sentence中的每个单词对其后续单词的Attention被masked,只能关注其之前的单词;

对于Left-to-Right,Transformer的Attention只关注词本身和它前面的词,不关注它后面的词,所以mask矩阵是一个下三角矩阵;

对于 Bidirectional,Transformer 的 Attention 关注所有的词,包括 NSP 任务,就像原始的 BERT 一样。

在 UniLM 预训练过程中,这三种方法中的每一种都训练了 1/3 的时间。 与原始BERT相比,增加的单向LM预训练增强了文本表示能力,增加的Seq-to-Seq LM预训练也使得UniLM在文本生成/编写任务中表现良好。

T5

T5,全称Text-to-Text Transfer Transformer,是谷歌在2020年提出的一种模型结构,其总体思路是使用Seq2Seq文本生成来解决所有下游任务:例如问答、摘要、分类、翻译、匹配、 continuation、denotational disambiguation 等。这种方法使所有任务能够共享相同的模型、相同的损失函数和相同的超参数。

T5的模型结构是基于多层Transformer的Encoder-Decoder结构。 T5 与其他模型的主要区别在于,GPT 家族是仅包含 Decoder 结构的自回归语言模型(AutoRegressive LM),而 BERT 是仅包含 Encoder 的自编码语言模型(AutoEncoder LM)。

文本到文本框架图。 每个任务都使用文本作为模型的输入,模型经过训练可以生成一些目标文本。 这些任务包括翻译(绿色)、语言可接受性(红色)、句子相似性(黄色)和文档摘要(蓝色)(来源)。

T5的预训练分为无监督和监督两部分。

无监督训练

无监督部分是类似于BERT的MLM方法,只是BERT是masking单个单词,而T5是masking一段连续的单词,即text span。 被屏蔽的文本范围仅由单个屏蔽字符替换,即屏蔽后文本的屏蔽序列长度也是未知的。 Decoder部分只输出mask的text span,其他词统一替换为集合<X>、<Y>、<Z>符号。 这样做有三个好处,一是增加了预训练的难度,显然预测未知长度的连续文本跨度是比预测单个词更难的任务,这也使得训练好的语言模型的文本表示能力更强 通用且更适应于对质量差的数据进行微调; 二是生成任务输出序列长度未知,T5的预训练很好 T5中使用的这种预训练任务也称为CTR(Corrupted Text Reconstruction)。

监督培训

监督部分使用了GLUE和SuperGLUE中包含的四大类任务:机器翻译、问答、总结和分类。 Fine-tune 的核心是将这些数据集和任务组合在一起作为一个任务,为了实现这一点,人们想到了为每个任务设计不同的前缀,与任务文本一起输入。 例如,对于翻译任务,翻译“That is good”。 从英语到德语,然后“将英语翻译成德语:很好。 目标:Das ist gut。 进入培训,“将英语翻译成德语:很好。 target:”,模型输出预测为“Das ist gut.”。 其中“将英语翻译成德语:”是为此翻译任务添加的前缀。

Supervised training

BART 代表双向和自回归变压器。 它是Facebook在2020年提出的一种模型结构,顾名思义,它是一种结合了双向编码结构和自回归解码结构的模型结构。 BART模型结构吸收了BERT中Bidirectional Encoder和GPT中Left-to-Right Decoder的特点,建立在标准的Seq2Seq Transformer模型之上,比BERT更适合文本生成场景。 同时,相对于GPT,它还拥有更多的双向上下文上下文信息。

                            BART模型体系

BART的预训练任务采用了还原文本中[噪声]的基本思想。 BART 使用以下特定 [噪音]:

Token Masking:和BERT一样,随机选择一个token替换为[MASK];

Token Deletion:随机删除一个token,模型必须确定丢失了哪个输入;

Text Infilling:与 T5 方法类似,屏蔽一个文本范围,每个文本范围都被一个 [MASK] 标签替换。

Sentence Permutation:将输入分成多个句子,以句点为分隔符,随机打乱;

Document Rotation:随机均匀地选择一个token,并以所选token作为新的开始围绕它旋转输入,该任务训练模型识别文档的开头。

可以看出,相比于BERT或者T5,BART在Encoder端尝试各种[noise],原因和目的也很简单:

BERT 中使用的简单替换导致 Encoder 输入携带了一些关于序列结构的信息(例如序列的长度),这些信息在文本生成任务中通常不会提供给模型。

BART 使用一组更多样化的 [噪声],目的是破坏有关序列结构的信息并防止模型“依赖”它。 对于各种输入[噪声],BART在Decoder端采用统一的重构形式,即输出正确的原句。 BART 使用的预训练任务也称为 FTR(全文重建)。

通用技术

GPT代表生成预训练。 它是一种迭代预训练模型,其主要成员家族包括第一代GPT、GPT-2、GPT-3、InstructGPT,以及目前流行的ChatGPT。 下面我们一一介绍。

GPT-1

第一代GPT是OpenAI于2018年提出的预训练语言模型,其诞生早于BERT,其核心思想是基于大量未标注数据进行生成式预训练学习,然后fine- 根据特定任务调整它。 由于专注于生成式预训练,GPT模型结构只使用了Transformer的Decoder部分,其标准结构包括Masked Multi-Head Attention和Encoder-Decoder Attention。 GPT的预训练任务是SLM(Standard Language Model),根据之前的上下文(window)来预测词的当前位置,所以需要保留Mask Multi-Head Attention来屏蔽后面的context 防止信息泄露的词。 因为没有使用Encoder,所以从GPT结构中去掉了Encoder-Decoder Attention。

GPT-2

第一代GPT的问题是fine-tuning下游任务缺乏可迁移性,Fine-Tuning层不共享。 为了解决这个问题,OpenAI 在 2019 年引入了 GPT 家族的新成员:GPT-2。

           GPT-2模型体系

GPT-2 的学习目标是使用无监督的预训练模型来完成有监督的任务。 与第一代GPT相比,GPT-2有以下变化:

模型结构去掉了Fine-Tuning层,所有任务都通过为语言模型设计合理的语句进行预训练,训练需要保证每个任务的损失函数收敛;

Layer Normalization的位置移到了每个sub-block的input,在最后一个Self-Attention之后也增加了一个Layer Normalization;

使用改进的初始化方法,其中残差层的权重在初始化时缩放为1/√N倍,其中N是残差层的数量;

Vocabulary scale 扩展到 50257,输入上下文的大小从 512 扩展到 1024,并使用更大的 batch_size 进行训练。 GPT-2的多任务训练使其具有更强的泛化能力,当然这也得益于其使用了高达40G的训练语料。 GPT-2最大的贡献是验证了用海量数据和大量参数训练的模型无需额外训练即可迁移到其他类别任务的能力。

GPT-3

2020年,OpenAI在GPT-2的基础上进一步推出了GPT-3。 GPT-3的做法更简单粗暴,模型整体结构和训练目标与GPT-2相似,但GPT-3将模型规模增加到1750亿个参数(比GPT-2大115倍),使用45TB 的训练数据。 由于参数数量惊人,GPT-3 可以使用零样本和少量样本进行学习和预测,而无需进行梯度更新。

InstructGPT

超大模型GPT-3确实在生成任务方面取得了前所未有的成绩,尤其是在零样本和少样本场景下,但是GPT-3面临了一个新的挑战:模型的输出并不总是有用的,它可能会输出 不真实、有害或反映负面情绪的结果。 这种现象是可以理解的,因为预训练的任务是语言模型,预训练的目标是在输入约束下最大化输出为自然语言的可能性,而不是“用户需要安全和有用”的要求。 为了解决这个问题,OpenAI在2022年发表了基于GPT-3的重要研究:InstructGPT,引入了人类反馈强化学习(RLHF)技术。

                                 Instruct GPT处理流程

InstructGPT在模型本身方面与GPT-3没有太大变化,主要变化在训练策略上。 总体思路是让标注者为调用示例提供演示答案,然后使用这些数据对模型进行微调,使其做出更合适的响应。 其训练步骤分为三步:

收集演示数据并使用监督训练训练模型。 对提示数据集的一部分进行采样以进行手动注释,并将其用于 Fine-Tuning GPT-3。

收集对比数据并训练奖励模型。 对一批数据进行采样并将其输入到在步骤 1 中微调的模型中。注释者根据其优点对模型的输出进行排序,并使用该数据来训练奖励模型。

使用强化学习来优化模型的输出。 利用第2步得到的奖励模型,通过强化学习优化第1步微调后的模型输出,使模型输出更合适的反应。

由此产生的 InstructGPT 在 following instructions 方面比 GPT-3 好很多,而且 InstructGPT 不太可能凭空编造事实,有害输出的产生有小幅下降趋势。

ChatGPT

ChatGPT 是 OpenAI 于 2022 年 11 月 30 日正式发布的最新研究成果,它采用与 InstructGPT 相同的方法,使用从人类反馈中强化学习(RLHF)来训练模型,在数据收集方法上有所改进(未具体披露)。

ChatGPT 实战(来源)

可以看出,ChatGPT的训练过程与InstructGPT的训练过程是一致的,不同的是InstructGPT是在GPT-3上微调,而ChatGPT是在GPT-3.5上微调(GPT-3.5是OpenAI训练的模型 Q4 2021 自动化代码编写能力强)。

纵观从第一代GPT到ChatGPT的发展历程,OpenAI已经证明,使用超大数据训练超大模型,得到的预训练语言模型足以应对自然语言理解和自然语言生成等各种下游任务,甚至 无需微调,仍然可以处理零/少量样本任务。 在输出的安全性和可控性方面,OpenAI 的答案是基于人力强化学习:雇佣了 40 名全职标注员工作了近 2 年(标注时间官方未透露,作者仅从粗略推断) GPT-3和ChatGPT间隔两年半,因为强化学习需要不断迭代)为模型的输出提供标注反馈,只有有了这些数据才能进行强化学习来指导模型的优化。 Transformer+超大数据+超大模型+海量人力+强化学习,造就了今天现象级的ChatGPT。

作者 east

上一 1 2

关注公众号“大模型全栈程序员”回复“小程序”获取1000个小程序打包源码。回复”chatgpt”获取免注册可用chatgpt。回复“大数据”获取多本大数据电子书

标签

AIGC AI创作 bert chatgpt github GPT-3 gpt3 GTP-3 hive mysql O2O tensorflow UI控件 不含后台 交流 共享经济 出行 图像 地图定位 外卖 多媒体 娱乐 小程序 布局 带后台完整项目 开源项目 搜索 支付 效率 教育 日历 机器学习 深度学习 物流 用户系统 电商 画图 画布(canvas) 社交 签到 联网 读书 资讯 阅读 预订

官方QQ群

小程序开发群:74052405

大数据开发群: 952493060

近期文章

  • 详解Python当中的pip常用命令
  • AUTOSAR如何在多个供应商交付的配置中避免ARXML不兼容?
  • C++thread pool(线程池)设计应关注哪些扩展性问题?
  • 各类MCAL(Microcontroller Abstraction Layer)如何与AUTOSAR工具链解耦?
  • 如何设计AUTOSAR中的“域控制器”以支持未来扩展?
  • C++ 中避免悬挂引用的企业策略有哪些?
  • 嵌入式电机:如何在低速和高负载状态下保持FOC(Field-Oriented Control)算法的电流控制稳定?
  • C++如何在插件式架构中使用反射实现模块隔离?
  • C++如何追踪内存泄漏(valgrind/ASan等)并定位到业务代码?
  • C++大型系统中如何组织头文件和依赖树?

文章归档

  • 2025年6月
  • 2025年5月
  • 2025年4月
  • 2025年3月
  • 2025年2月
  • 2025年1月
  • 2024年12月
  • 2024年11月
  • 2024年10月
  • 2024年9月
  • 2024年8月
  • 2024年7月
  • 2024年6月
  • 2024年5月
  • 2024年4月
  • 2024年3月
  • 2023年11月
  • 2023年10月
  • 2023年9月
  • 2023年8月
  • 2023年7月
  • 2023年6月
  • 2023年5月
  • 2023年4月
  • 2023年3月
  • 2023年1月
  • 2022年11月
  • 2022年10月
  • 2022年9月
  • 2022年8月
  • 2022年7月
  • 2022年6月
  • 2022年5月
  • 2022年4月
  • 2022年3月
  • 2022年2月
  • 2022年1月
  • 2021年12月
  • 2021年11月
  • 2021年9月
  • 2021年8月
  • 2021年7月
  • 2021年6月
  • 2021年5月
  • 2021年4月
  • 2021年3月
  • 2021年2月
  • 2021年1月
  • 2020年12月
  • 2020年11月
  • 2020年10月
  • 2020年9月
  • 2020年8月
  • 2020年7月
  • 2020年6月
  • 2020年5月
  • 2020年4月
  • 2020年3月
  • 2020年2月
  • 2020年1月
  • 2019年7月
  • 2019年6月
  • 2019年5月
  • 2019年4月
  • 2019年3月
  • 2019年2月
  • 2019年1月
  • 2018年12月
  • 2018年7月
  • 2018年6月

分类目录

  • Android (73)
  • bug清单 (79)
  • C++ (34)
  • Fuchsia (15)
  • php (4)
  • python (43)
  • sklearn (1)
  • 云计算 (20)
  • 人工智能 (61)
    • chatgpt (21)
      • 提示词 (6)
    • Keras (1)
    • Tensorflow (3)
    • 大模型 (1)
    • 智能体 (4)
    • 深度学习 (14)
  • 储能 (44)
  • 前端 (4)
  • 大数据开发 (488)
    • CDH (6)
    • datax (4)
    • doris (30)
    • Elasticsearch (15)
    • Flink (78)
    • flume (7)
    • Hadoop (19)
    • Hbase (23)
    • Hive (40)
    • Impala (2)
    • Java (71)
    • Kafka (10)
    • neo4j (5)
    • shardingsphere (6)
    • solr (5)
    • Spark (99)
    • spring (11)
    • 数据仓库 (9)
    • 数据挖掘 (7)
    • 海豚调度器 (10)
    • 运维 (34)
      • Docker (3)
  • 小游戏代码 (1)
  • 小程序代码 (139)
    • O2O (16)
    • UI控件 (5)
    • 互联网类 (23)
    • 企业类 (6)
    • 地图定位 (9)
    • 多媒体 (6)
    • 工具类 (25)
    • 电商类 (22)
    • 社交 (7)
    • 行业软件 (7)
    • 资讯读书 (11)
  • 嵌入式 (70)
    • autosar (63)
    • RTOS (1)
    • 总线 (1)
  • 开发博客 (16)
    • Harmony (9)
  • 技术架构 (6)
  • 数据库 (32)
    • mongodb (1)
    • mysql (13)
    • pgsql (2)
    • redis (1)
    • tdengine (4)
  • 未分类 (6)
  • 程序员网赚 (20)
    • 广告联盟 (3)
    • 私域流量 (5)
    • 自媒体 (5)
  • 量化投资 (4)
  • 面试 (14)

功能

  • 登录
  • 文章RSS
  • 评论RSS
  • WordPress.org

All Rights Reserved by Gitweixin.本站收集网友上传代码, 如有侵犯版权,请发邮件联系yiyuyos@gmail.com删除.