gitweixin
  • 首页
  • 小程序代码
    • 资讯读书
    • 工具类
    • O2O
    • 地图定位
    • 社交
    • 行业软件
    • 电商类
    • 互联网类
    • 企业类
    • UI控件
  • 大数据开发
    • Hadoop
    • Spark
    • Hbase
    • Elasticsearch
    • Kafka
    • Flink
    • 数据仓库
    • 数据挖掘
    • flume
    • Kafka
    • Hive
    • shardingsphere
    • solr
  • 开发博客
    • Android
    • php
    • python
    • 运维
    • 技术架构
    • 数据库
  • 程序员网赚
  • bug清单
  • 量化投资
  • 在线查询工具
    • 去行号
    • 在线时间戳转换工具
    • 免费图片批量修改尺寸在线工具
    • SVG转JPG在线工具

月度归档4月 2023

精品微信小程序开发门户,代码全部亲测可用

  • 首页   /  2023   /  
  • 4月
Java 4月 28,2023

用java写一个统计这个文件夹中所有csv总共有多少行

  • 创建一个BufferedReader对象,用来读取文件夹中的csv文件。
  • 使用一个循环,每次读取一行数据,直到文件结束。
  • 使用一个计数器变量,每次读取一行数据就加一。
  • 返回计数器变量的值,就是csv文件的行数。

以下是一个可能的代码示例:

import java.io.BufferedReader;
import java.io.File;
import java.io.FileReader;
import java.io.IOException;

public class CSVLineCounter {

    // 定义一个方法,接受一个文件夹路径作为参数,返回该文件夹中所有csv文件的总行数
    public static int countLinesInFolder(String folderPath) throws IOException {
        // 创建一个File对象,表示文件夹
        File folder = new File(folderPath);
        // 创建一个数组,存储文件夹中的所有文件
        File[] files = folder.listFiles();
        // 创建一个计数器变量,初始化为0
        int count = 0;
        // 遍历文件数组
        for (File file : files) {
            // 判断文件是否是csv格式
            if (file.getName().endsWith(".csv")) {
                // 调用countLinesInFile方法,统计该文件的行数,并累加到计数器变量上
                count += countLinesInFile(file.getPath());
            }
        }
        // 返回计数器变量的值
        return count;
    }

    // 定义一个方法,接受一个文件路径作为参数,返回该文件的行数
    public static int countLinesInFile(String filePath) throws IOException {
        // 创建一个BufferedReader对象,用来读取文件
        BufferedReader br = new BufferedReader(new FileReader(filePath));
        // 创建一个计数器变量,初始化为0
        int count = 0;
        // 使用一个循环,每次读取一行数据,直到文件结束
        while (br.readLine() != null) {
            // 每次读取一行数据就加一
            count++;
        }
        // 关闭BufferedReader对象
        br.close();
        // 返回计数器变量的值
        return count;
    }

    public static void main(String[] args) throws IOException {
        // 测试代码,假设有一个名为test的文件夹,里面有若干个csv文件
        String folderPath = "test";
        // 调用countLinesInFolder方法,打印出总行数
        System.out.println("The total number of lines in the folder is: " + countLinesInFolder(folderPath));
    }
}
作者 east
Flink 4月 28,2023

CDH上Flink执行sql-client命令提示[ERROR] Could not execute SQL statement. Reason: java.net.ConnectException: 拒绝连接

在cdh6.3.2上执行sql-client的命令,提示:

[ERROR] Could not execute SQL statement. Reason:
java.net.ConnectException: 拒绝连接

这可能是由于以下原因:

  • 您没有启动flink集群,或者flink集群不可用。您可以检查flink集群的状态,或者尝试重新启动flink集群。
  • 您没有正确地配置flink sql-client的环境,或者您的配置文件有误。您可以检查您的sql-client-defaults.yaml文件,或者参考官方文档来设置flink sql-client的环境。
  • 您的网络有问题,或者您的防火墙阻止了flink sql-client的连接。您可以检查您的网络连接,或者允许flink sql-client通过防火墙。

原来是需要启动本地集群:

./start-cluster.sh
cd /opt/cloudera/parcels/FLINK-1.14.4-BIN-SCALA_2.12/lib/flink/bin

然后再次启动sql客户端即可执行成功。

作者 east
doris 4月 28,2023

flink cdc写入到doris报错:[ERROR] Could not execute SQL statement. Reason: org.apache.flink.table.api.ValidationException: Unsupported options found for ‘doris’.

在用flink的sql-client.sh或用Dinky执行flink cdc写入到doris时,报下面的错误:

[ERROR] Could not execute SQL statement. Reason:
org.apache.flink.table.api.ValidationException: Unsupported options found for 'doris'.

Unsupported options:

sink.batch.size

Supported options:

connector
doris.batch.size
doris.deserialize.arrow.async
doris.exec.mem.limit
doris.filter.query
doris.read.field
doris.request.connect.timeout.ms
doris.request.query.timeout.s
doris.request.read.timeout.ms
doris.request.retries
doris.request.retriesdoris.deserialize.queue.size
doris.request.tablet.size
fenodes
password
property-version
sink.batch.interval
sink.buffer-count
sink.buffer-size
sink.check-interval
sink.enable-2pc
sink.enable-delete
sink.label-prefix
sink.max-retries
source.use-old-api
table.identifier
username

刚开始以为是jar包问题,先后找了flink-doris-connector-1.14_2.12-1.1.1.jar和flink-doris-connector-1.14_2.12-1.1.0.jar放在flink的jar包里面,还是同样出现上面的。

让我不解的是,用代码来操作时,导入是同样的安装包,但没上面的问题。

后来问了New Bing,New Bing是这样回答的:

您好,根据您的错误信息,您可能需要修改您的Doris表的配置选项,以符合Flink Doris Connector的要求。您可以参考以下的建议:

  • 您可能需要将sink.batch.size改为doris.batch.size,这是一个控制每次写入Doris的数据量的选项。
  • 您可能需要检查您是否正确地设置了connector选项,这是一个指定连接器类型的选项,对于Doris表,应该设置为connector = ‘doris’。
  • 您可能需要检查您是否正确地设置了table.identifier选项,这是一个指定Doris表名的选项,应该设置为table.identifier = ‘db_name.table_name’。

这时注意到问题在“sink.batch.size”,而不是之前以为“Unsupported options found for ‘doris’”是相关的jar包没找到。原来自己用的例子是旧版本例子:

DROP TABLE IF EXISTS doris_sink;
-- 创建Doris表
CREATE TABLE doris_sink (
  id INT PRIMARY KEY,
  name STRING,
  age INT,
  modified_time STRING
) WITH (
  'connector' = 'doris',
  'fenodes' = '10.0.80.54:8030',
  'table.identifier' = 'db_test.test_cdc',
  'username' = 'root',
  'password' = '',
  'sink.batch.size' = '1000'
);

需要修改为

DROP TABLE IF EXISTS doris_sink;
-- 创建Doris表
CREATE TABLE doris_sink (
  id INT PRIMARY KEY,
  name STRING,
  age INT,
  modified_time STRING
) WITH (
  'connector' = 'doris',
  'fenodes' = '10.0.80.54:8030',
  'table.identifier' = 'db_test.test_cdc',
  'username' = 'root',
  'password' = ''
);
作者 east
doris 4月 26,2023

配置dinky的集群配置管理时,提示下面的错误:Handler dispatch failed; nested exception is java.lang.NoClassDefFoundError: org/apache/flink/configuration/GlobalConfiguration

Dinky是一个一站式的实时计算平台,基于Apache Flink构建,支持流批一体和数据湖数据仓库统一1。你在配置Dinky的集群配置管理时,遇到了java.lang.NoClassDefFoundError: org/apache/flink/configuration/GlobalConfiguration的错误,

这是因为Dinky 需要具备自身的 Flink 环境,该 Flink 环境的实现需要用户自己在 Dinky 根目录下 plugins/flink${FLINK_VERSION} 文件夹并上传相关的 Flink 依赖,例如在/data/dinky/plugins/flink1.14/dinky/

上传flink安装包lib的依赖,例如flink-dist_2.12-1.14.4.jar、flink-table_2.12-1.14.4.jar等安装包。

如果又出现
ERROR: org.springframework.web.util.NestedServletException: Handler dispatch failed; nested exception is java.lang.NoClassDefFoundError: org/apache/hadoop/yarn/conf/YarnConfiguration 的错误。

需要将 flink-shade-hadoop 上传到到 plugins 文件目录下,使用 flink-shade-hadoop-3 地址如下:

https://mvnrepository.com/artifact/org.apache.flink/flink-shaded-hadoop-3-uber?repo=cloudera-repos

作者 east
Flink 4月 25,2023

运行flink的word count提示: could not find implicit value for evidence parameter of type org.apache.flink.api.common.typeinfo.TypeInformation

写了一个flink简单word count的例子:


import org.apache.flink.api.scala._

object FlinkWordCount {
  def main(args: Array[String]): Unit = {
    val env = ExecutionEnvironment.getExecutionEnvironment
    val words = List("hello", "world", "flink", "scala", "hello", "flink")

    // 为DataStream和DataSet的上下文提供隐式的类型信息
    implicit val typeInfo = createTypeInformation[WordCount]

    val wordDataSet = env.fromCollection(words)

    val wordCountDataSet = wordDataSet
      .map(word => WordCount(word, 1))
      .groupBy(0)
      .sum(1)

   
  }

  case class WordCount(word: String, count: Int)
}

提示could not find implicit value for evidence parameter of type org.apache.flink.api.common.typeinfo.TypeInformation

各种修改后还是报错,后来想到scala版本问题。
Flink 1.10.0以上版本需要Scala 2.12.x,如果使用Scala 2.11.x版本,就会报错。请确认一下你的Scala版本是否为2.12.x,如果不是请升级Scala版本到2.12.x后再运行代码。

作者 east
Flink 4月 24,2023

Flink CDC获取mysql 主从分库,分库分表的binlog

Flink CDC可以获取MySQL主从分库,分库分表的binlog,但是需要注意以下几点:

  • Flink CDC需要配置MySQL的binlog模式为row,以及开启GTID(全局事务标识符),以便正确地识别和处理binlog事件
  • Flink CDC需要配置MySQL的主从复制关系,以及指定主库或从库的地址,以便正确地连接和读取binlog数据
  • Flink CDC需要配置MySQL的分库分表规则,以及指定分库分表的键,以便正确地合并和转换binlog数据

一个可能的Flink CDC获取MySQL主从分库,分库分表的binlog的示例如下:

-- 创建MySQL主从分库,分库分表的表对象
CREATE TABLE mysql_user (
  id INT PRIMARY KEY NOT ENFORCED,
  name STRING,
  age INT
) WITH (
  'connector' = 'mysql-cdc',
  'hostname' = 'master-host', -- 主库地址
  'port' = '3306',
  'username' = 'root',
  'password' = '123456',
  'database-name' = 'test', -- 分库名
  'table-name' = 'user_${0-9}', -- 分表名
  'server-id' = '5400', -- 从库ID
  'scan.startup.mode' = 'initial', -- 初始扫描模式
  'scan.split.size' = '8096', -- 扫描块大小
  'debezium.snapshot.locking.mode' = 'none', -- 快照锁定模式
  'debezium.gtid.source.includes' = '', -- GTID包含范围
  'debezium.gtid.source.excludes' = '' -- GTID排除范围
);

-- 使用Flink SQL或DataStream API将MySQL的增量数据写入到其他目标,如Hive、Doris等
INSERT INTO hive_user SELECT * FROM mysql_user;

-- DataStream API
DataStream<Row> stream = tEnv.toAppendStream(tEnv.sqlQuery("SELECT * FROM mysql_user"), Row.class);
tEnv.createTemporaryView("stream", stream);
tEnv.executeSql("INSERT INTO doris_user SELECT * FROM stream");
作者 east
Flink 4月 24,2023

对比flink cdc和canal获取mysql binlog优缺点

Flink CDC和Canal都是用于获取MySQL binlog的工具,但是有以下几点优缺点对比:

  • Flink CDC是一个基于Flink的库,可以直接在Flink中使用,无需额外的组件或服务,而Canal是一个独立的服务,需要单独部署和运行,增加了系统的复杂度和成本
  • Flink CDC支持多种数据库的数据变化捕获,如MySQL、PostgreSQL、MongoDB等,而Canal只支持MySQL和MariaDB的数据变化捕获
  • Flink CDC支持Exactly-Once语义,保证数据的一致性和准确性,而Canal只支持At-Least-Once语义,可能会出现数据的重复或丢失
  • Flink CDC支持自动元数据更新,无需手动创建或维护表结构,而Canal需要手动创建或维护表结构,增加了开发和维护的工作量
  • Flink CDC支持Flink SQL和DataStream API的使用,方便进行数据处理和转换,而Canal只提供了Kafka、RocketMQ等消息队列的接口,需要额外的消费者进行数据处理和转换
作者 east
运维 4月 24,2023

能使用socket5协议,ssh海外vps服务器的软件

由于xshell有漏洞,公司不给使用,所以寻找一款替代软件。

除了 Xshell 之外,还有一些其他软件可以连接到国外 VPS 并设置 Socks5 代理。以下是几个比较常用的软件:

  1. PuTTY:PuTTY 是一款常用的 SSH 和 Telnet 客户端软件,可以在 Windows 平台上运行,并且可以连接到远程 SSH 服务器。PuTTY 同时也支持设置 Socks5 代理。
  2. Bitvise SSH Client:Bitvise SSH Client 也是一种常用的 SSH 客户端,可以用于在 Windows 上连接到远程 SSH 服务器。Bitvise SSH Client 提供了 Socks5 和 HTTP 代理配置选项,并且支持在 Windows 上设置全局 Socks5 代理。
  3. WinSCP:WinSCP 是用于在 Windows 平台上使用 SSH 的免费开源工具,它还具有文件传输和文件管理的功能,支持 SCP, SFTP, FTPS, FTP 等协议。WinSCP 支持使用 Socks5 代理连接到 SFTP 服务器。

经过自己试验,觉得 Bitvise SSH Client 使用方便,用代理速度很快。之前在centos装ss5软件,访问起来龟速,用 Bitvise SSH Client 代理访问很快。

作者 east
doris 4月 23,2023

使用navicat来访问doris

访问Doris的UI

http:// dorisfe_ip:8030

由于doris是使用mysql协议,因此可以不用任何额外配置就可以使用navicat访问doris。 可以使用MySql客户端来连接Doris FE,也可以使用mysql命令工具连接,因为他是Mysql协议,所以在使用上跟Mysql一样的。

只是doris默认的端口不是3306,而是9030。

也可以用mysql命令行来访问doris。

  • Mysql命令连接
mysql -uroot -P9030 -h127.0.0.1

注意:

  1. 这里使用的 root 用户是 doris 内置的默认用户,也是超级管理员用户
  2. -P :这里是我们连接 Doris 的查询端口,默认端口是 9030,对应的是fe.conf里的 query_port
  3. -h : 这里是我们连接的 FE IP地址,如果你的客户端和 FE 安装在同一个节点可以使用127.0.0.1,这种也是 Doris 提供的如果你忘记 root 密码,可以通过这种方式不需要密码直接连接登录,进行对 root 密码进行重置

作者 east
Spark 4月 23,2023

运行spark的任务报下面的错误”org.apache.spark.memory.SparkOutOfMemoryError: Unable to acquire 65536 bytes of memory, got 0″,

这个错误表明Spark没有足够的内存来执行任务。可以试着通过以下方式修复:

  1. 增加可用内存。可以增加集群的内存或者减少任务的内存需求。
  2. 调整Spark的内存配置。可以调整Spark的内存配置,如executor的内存大小和driver的内存大小。
  3. 减少数据量。如果处理的数据量很大,可以考虑分批处理或者采用其他的数据处理方式。
  4. 使用内存优化技术。可以使用缓存、序列化等技术来优化内存使用。
  5. 调整GC策略。可以考虑采用更适合应用场景的GC策略。
作者 east
人工智能 4月 23,2023

如何监管你的人工智能

尽管在过去几十年中人工智能领域取得了显着进步,但该技术一次又一次地未能兑现其承诺。人工智能驱动的自然语言处理器可以编写从新闻文章到小说的所有内容,但并非没有种族主义和歧视性语言。自动驾驶汽车可以在没有驾驶员输入的情况下导航,但不能消除愚蠢事故的风险。 AI 有个性化的在线广告,但时不时会严重错过上下文。
我们不能相信人工智能每次都能做出正确的决定。这并不意味着我们需要停止开发和部署下一代人工智能技术。相反,我们需要通过让人类主动过滤和验证数据集、维护决策制定控制或添加稍后将自动应用的指南来建立护栏。
智能系统根据输入复杂算法的数据做出决策,该算法用于创建和训练 AI 模型以解释数据。这使它能够自主“学习”和做出决策,并使其有别于仅在其创建者提供的程序上运行的工程系统。
但并非所有看似“智能”的系统都使用人工智能。许多是智能工程的例子,用于通过显式编程或让人类在机器人记录时执行动作来训练机器人。没有决策过程。相反,它是在高度结构化的环境中工作的自动化技术。
AI 对这个用例的承诺是使机器人能够在更加非结构化的环境中运行,真正从已经展示的示例中抽象出来。机器学习和深度学习技术使机器人能够在一次穿过仓库的行程中识别、拾取和运输一托盘罐头食品,然后对电视进行同样的操作,而不需要人类更新其程序来解决不同的问题。产品或位置。
构建任何智能系统的固有挑战在于,其决策能力仅与用于开发的数据集以及用于训练其 AI 模型的方法一样好。
没有 100% 完整、无偏见和准确的数据集。这使得创建本身没有潜在错误和偏见的 AI 模型变得极其困难。
考虑一下新的大型语言模型 (LLM) Facebook 及其母公司 Meta,最近向任何研究自然语言处理 (NLP) 应用程序的研究人员开放,例如智能手机和其他连接设备上支持语音的虚拟助手。该公司研究人员的一份报告警告称,新系统 OPT-175B“极有可能产生有毒语言并强化有害的刻板印象,即使是在提供相对无害的提示时也是如此,而对抗性提示是微不足道的。”
研究人员怀疑,人工智能模型是根据包括从社交媒体对话中获取的未经过滤的文本的数据进行训练的,无法识别它何时“决定”使用该数据来生成仇恨言论或种族主义语言。我完全赞扬 Meta 团队对他们的挑战持开放和透明的态度,并将该模型免费提供给希望帮助解决困扰所有 NLP 应用程序的偏见问题的研究人员。但这进一步证明,人工智能系统还不够成熟,也不够强大,无法独立于人类决策过程和干预而运作。
那么,如果我们不能信任人工智能,我们如何在降低风险的同时培育它的发展呢?通过采用三种实用方法中的一种(或多种)来解决问题。
一种方法是应用特定领域的数据过滤器,以防止不相关和不正确的数据在训练时到达人工智能模型。假设一家汽车制造商正在制造一辆配备四缸发动机的小型汽车,希望整合一个神经网络来检测发动机传感器和执行器的软故障。该公司可能拥有涵盖其所有车型的综合数据集,从紧凑型汽车到大型卡车和 SUV。但它应该过滤掉不相关的数据,以确保它不会使用特定于八缸卡车的数据来训练其四缸汽车的 AI 模型。
我们还可以建立过滤器,通过确认每个决定都会产生好的结果来保护世界免受错误的 AI 决定的影响,如果没有,则阻止它采取行动。这需要特定领域的检查触发器,以确保我们相信 AI 会做出某些决定并在预定义的参数范围内采取行动,而任何其他决定都需要“健全性检查”。
输出滤波器在自动驾驶汽车中建立安全运行速度范围,告诉 AI 模型,“我只允许你在这个安全范围内进行调整。如果您超出了该范围,并且决定将发动机转速降至 100 rpm 以下,则必须先咨询人类专家。”
开发人员将现有 AI 模型重新用于新应用程序的情况并不少见。这允许通过并行运行基于先前系统的专家模型来创建第三个护栏。主管将新系统的决策与以前系统的决策进行核对,并尝试确定出现任何差异的原因。
例如,一辆新车的自动驾驶系统在沿高速公路行驶时错误地从 55 mph 减速到 20 mph。假设以前的系统在相同情况下保持 55 mph 的速度。在这种情况下,主管稍后可以查看提供给两个系统的 AI 模型的训练数据,以确定差异的原因。但就在做决定的时候,我们可能想建议这种减速,而不是自动做出改变。
将控制 AI 的需求想象成类似于在孩子学习新事物(例如如何骑自行车)时需要照看他们。成年人作为护栏在旁边奔跑,帮助新骑手保持平衡并为他们提供做出明智决定所需的信息,例如何时踩刹车或让行人。
总而言之,开发人员有三种选择可以在生产过程中保持 AI 的正常运行:
但是,如果开发人员忘记仔细挑选数据和学习方法并为他们的 AI 模型建立可靠且可重复的生产流程,那么这些选项都将不起作用。最重要的是,开发人员需要意识到没有法律要求他们围绕 AI 构建新的应用程序或产品。
确保使用大量的自然智能,并问问自己,“AI 真的有必要吗?”智能工程和经典技术可能会提供更好、更清洁、更强大和更透明的解决方案。在某些情况下,最好完全避免人工智能。

作者 east
doris 4月 19,2023

免费可源可商用的BI工具对比(支持Doris 数据库)

目前市面上有很多开源的 BI 工具可供选择,以下是几个免费、开源且可以商用的 BI 工具,并且支持和 Doris 数据库结合使用:

  1. Superset:由 Airbnb 发起的开源 BI 工具,带有可视化和交互式仪表盘功能。Superset 支持多种数据源,其中包括 Doris 数据库。
  2. Metabase:一个简单易用的 BI 工具,支持数据可视化和 SQL 查询。Metabase 支持多种数据库,包括 Doris 数据库。
  3. Redash:一个开源的数据查询和可视化工具,支持多种数据源,包括 Doris 数据库。

这些工具都支持多种数据源,包括 Doris 数据库,并提供了直观的查询和可视化界面,可以帮助分析师更好地理解和分析数据。

下面是 Datart 和上述三种开源 BI 工具的优缺点对比:

  1. Datart:Datart 是一个功能强大、易于使用的商业智能工具,可以满足复杂的数据分析需求。Datart 支持多种数据源,包括 Doris 数据库,并提供了数据清洗、数据可视化、数据建模等多种功能,可以帮助分析师更好的理解和分析数据。然而,由于 Datart 是商业软件,其使用和技术支持可能需要一定的成本投入。
  2. Superset:Superset 是一个由 Airbnb 发起的开源 BI 工具,带有可视化和交互式仪表盘功能。Superset 使用简便,具有良好的报表和图表设计能力,并支持多种数据源,包括 Doris 数据库。但是相对于 Datart,Superset 的数据建模和数据处理能力相对较弱。
  3. Metabase:Metabase 是一个简单易用的开源 BI 工具,具有良好的可视化和查询功能,并支持多种数据源,包括 Doris 数据库。然而与 Datart 相比,Metabase 的数据处理和数据建模能力相对较弱。
  4. Redash:Redash 是一个开源的数据查询和可视化工具,支持多种数据源,包括 Doris 数据库。Redash 方便易用,具有良好的查询和可视化功能,但是相对于 Datart,其扩展性和定制化能力相对较弱。

总的来说,选择适合自己的 BI 工具需要综合考虑多方面因素,包括数据规模、数据处理复杂度、报表需求、用户人数等。商业 BI 工具通常具有更强大的功能和更好的技术支持,但需要投入一定的成本。同时,开源 BI 工具虽然使用简单,但其扩展能力和个性化定制能力相对较差。

作者 east

1 2 … 4 下一个

关注公众号“大模型全栈程序员”回复“小程序”获取1000个小程序打包源码。回复”chatgpt”获取免注册可用chatgpt。回复“大数据”获取多本大数据电子书

标签

AIGC AI创作 bert chatgpt github GPT-3 gpt3 GTP-3 hive mysql O2O tensorflow UI控件 不含后台 交流 共享经济 出行 图像 地图定位 外卖 多媒体 娱乐 小程序 布局 带后台完整项目 开源项目 搜索 支付 效率 教育 日历 机器学习 深度学习 物流 用户系统 电商 画图 画布(canvas) 社交 签到 联网 读书 资讯 阅读 预订

官方QQ群

小程序开发群:74052405

大数据开发群: 952493060

近期文章

  • 详解Python当中的pip常用命令
  • AUTOSAR如何在多个供应商交付的配置中避免ARXML不兼容?
  • C++thread pool(线程池)设计应关注哪些扩展性问题?
  • 各类MCAL(Microcontroller Abstraction Layer)如何与AUTOSAR工具链解耦?
  • 如何设计AUTOSAR中的“域控制器”以支持未来扩展?
  • C++ 中避免悬挂引用的企业策略有哪些?
  • 嵌入式电机:如何在低速和高负载状态下保持FOC(Field-Oriented Control)算法的电流控制稳定?
  • C++如何在插件式架构中使用反射实现模块隔离?
  • C++如何追踪内存泄漏(valgrind/ASan等)并定位到业务代码?
  • C++大型系统中如何组织头文件和依赖树?

文章归档

  • 2025年6月
  • 2025年5月
  • 2025年4月
  • 2025年3月
  • 2025年2月
  • 2025年1月
  • 2024年12月
  • 2024年11月
  • 2024年10月
  • 2024年9月
  • 2024年8月
  • 2024年7月
  • 2024年6月
  • 2024年5月
  • 2024年4月
  • 2024年3月
  • 2023年11月
  • 2023年10月
  • 2023年9月
  • 2023年8月
  • 2023年7月
  • 2023年6月
  • 2023年5月
  • 2023年4月
  • 2023年3月
  • 2023年1月
  • 2022年11月
  • 2022年10月
  • 2022年9月
  • 2022年8月
  • 2022年7月
  • 2022年6月
  • 2022年5月
  • 2022年4月
  • 2022年3月
  • 2022年2月
  • 2022年1月
  • 2021年12月
  • 2021年11月
  • 2021年9月
  • 2021年8月
  • 2021年7月
  • 2021年6月
  • 2021年5月
  • 2021年4月
  • 2021年3月
  • 2021年2月
  • 2021年1月
  • 2020年12月
  • 2020年11月
  • 2020年10月
  • 2020年9月
  • 2020年8月
  • 2020年7月
  • 2020年6月
  • 2020年5月
  • 2020年4月
  • 2020年3月
  • 2020年2月
  • 2020年1月
  • 2019年7月
  • 2019年6月
  • 2019年5月
  • 2019年4月
  • 2019年3月
  • 2019年2月
  • 2019年1月
  • 2018年12月
  • 2018年7月
  • 2018年6月

分类目录

  • Android (73)
  • bug清单 (79)
  • C++ (34)
  • Fuchsia (15)
  • php (4)
  • python (43)
  • sklearn (1)
  • 云计算 (20)
  • 人工智能 (61)
    • chatgpt (21)
      • 提示词 (6)
    • Keras (1)
    • Tensorflow (3)
    • 大模型 (1)
    • 智能体 (4)
    • 深度学习 (14)
  • 储能 (44)
  • 前端 (4)
  • 大数据开发 (488)
    • CDH (6)
    • datax (4)
    • doris (30)
    • Elasticsearch (15)
    • Flink (78)
    • flume (7)
    • Hadoop (19)
    • Hbase (23)
    • Hive (40)
    • Impala (2)
    • Java (71)
    • Kafka (10)
    • neo4j (5)
    • shardingsphere (6)
    • solr (5)
    • Spark (99)
    • spring (11)
    • 数据仓库 (9)
    • 数据挖掘 (7)
    • 海豚调度器 (10)
    • 运维 (34)
      • Docker (3)
  • 小游戏代码 (1)
  • 小程序代码 (139)
    • O2O (16)
    • UI控件 (5)
    • 互联网类 (23)
    • 企业类 (6)
    • 地图定位 (9)
    • 多媒体 (6)
    • 工具类 (25)
    • 电商类 (22)
    • 社交 (7)
    • 行业软件 (7)
    • 资讯读书 (11)
  • 嵌入式 (70)
    • autosar (63)
    • RTOS (1)
    • 总线 (1)
  • 开发博客 (16)
    • Harmony (9)
  • 技术架构 (6)
  • 数据库 (32)
    • mongodb (1)
    • mysql (13)
    • pgsql (2)
    • redis (1)
    • tdengine (4)
  • 未分类 (6)
  • 程序员网赚 (20)
    • 广告联盟 (3)
    • 私域流量 (5)
    • 自媒体 (5)
  • 量化投资 (4)
  • 面试 (14)

功能

  • 登录
  • 文章RSS
  • 评论RSS
  • WordPress.org

All Rights Reserved by Gitweixin.本站收集网友上传代码, 如有侵犯版权,请发邮件联系yiyuyos@gmail.com删除.