自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

添柴程序猿的专栏

程序人生_困难下的坚持最珍贵.....

  • 博客(2838)
  • 资源 (54)
  • 问答 (4)
  • 收藏
  • 关注

原创 人工智能_机器学习101_特征值分解矩阵原理_线性代数之特征值和特征向量深入理解_利用特征值把矩阵分解成_特征向量乘以特征值---人工智能工作笔记0226

A= P^P-1 这里的P其实就是v特征向量对吧,就相当于A = lamada v /v 对吧,其实就是这个意思。所以通过这样的方式,就把矩阵B,相当于分解成了,特征值(对角矩阵) * 特征向量 了。np.eye(4) 去构建一个对角线上的全是1 的,初始化的4*4的,对角矩阵。这样就是上面我们说的特征值的定义,特征值,可以在特征向量方向上缩放矩阵.这里^对角矩阵,其实就是特征值,这个矩阵的对角有值,别的地方都是0。而样本数据,其实就是,一个个的矩阵,那么如果我们找到这些矩阵的。

2024-10-26 11:55:42 56

原创 人工智能_机器学习100_PCA数据降维算法_协方差和散度矩阵_深入理解_分析_协方差和散度矩阵计算过程---人工智能工作笔记0225

2.然后样本方差这里我们需要注意一下样本方差和全体方差的区别。所以如果用样本数据来计算,就会导致分子偏小,从而导致,整体的结果偏小,那么就需要让结果增大一些,所以/n的时候,就给n-1,设置了一个ddof,这个ddof就是这个1,自己可以调节,从而减小分母,让。用的样本而不是所有的数据,所以为了让方差的值,更接近,真实的,全部数据时候的方差值,可以看到这里,样本均值这里/n是对的,因为,这里用的是样本,样本不是所有的数据,后面会说,因为这里,我们获取的是列的均值,而,一行中的每列数据,应该减去这一行的。

2024-10-25 16:49:49 94

原创 Win10系统使用mstsc远程电脑的时候发现隔一段时间就无法使用剪贴板_rdpclip---Windows运维工作笔记055

然后我们再打开电脑的任务管理器,然后从任务管理器中去搜索一下,看看有没有rdp剪贴板程序。如果能找到这个程序的话,说明这个程序正在运行,如果没有找到的话,我们需要点击运行来启动这个程序,当然如果这个程序有的话也可以去重启一下,它可以先杀掉然后再启动一下。正常情况下,不管我一个电脑远程了多少台电脑,那么这些电脑之间都是可以使用粘贴板的,可以用来从一个电脑中截了图,然后粘贴到另一个电脑中。最近在使用温湿系统的远程桌面功能的时候发现,每当使用一段时间的时候,这个时候远程桌面功能的粘贴板就没办法使用了。

2024-09-28 12:32:30 315

原创 Win10系统插入带有麦克风的耳机_麦克风不起作用_解决方法_亲测成功---Windows运维工作笔记054

然后从弹出的对话框中,我们选中这个插孔麦克风,这个时候我们可以用我们的带有麦克风的耳机去说几句话,看一看有没有反应。但是手机跨屏输入的话,需要占用手机利用手机的麦克风来进行跨屏输入,非常的麻烦。如果有反应的话,那么恭喜你这个时候你就可以使用讯飞语音输入法去正常的时候文字了。找到这个软件以后,然后打开,然后在前面板的地方有个黑色的耳机插孔,我们点击它。今天我在使用讯飞输入法的时候,想通过讯飞的语音输入法来提高自己的输入效率。但是这个时候发现一个问题就是我插入我的台式机的是一个带有麦克风的耳机。

2024-09-28 12:24:15 374

原创 人工智能_机器学习099_PCA数据降维算法_SVD分解矩阵原理002_酉矩阵_共轭矩阵_全矩阵_符号翻转_奇异值分解代码实现---人工智能工作笔记0224

比如np.sign([1,2,-2,-0.5])得到的结果是[1,1,-1,-1]可以看到其实就是拿到的是符号。所以,我们得到的U E VT三个矩阵,其中西格玛 E,这个 一维的奇异值,他的值是从大到小排列的。可以看到是一模一样的,也就是pca特征值,特征向量算法,降维,其实就是用的标准差进行。然后再就是可以进行,符号翻转,其实就是拿到U矩阵中的,每个列中值最大的,获取到他的。如果把符号翻转这里去掉,就会导致,值是一样的,但是结果的符号就不一样了对吧.

2024-09-24 22:30:40 313

原创 人工智能_机器学习098_PCA数据降维算法_SVD分解矩阵原理001_数据分散程度_数据波动_标准差_方差_协方差_矩阵分解_散度矩阵_奇异值分解代码实现---人工智能工作笔记0223

4.进行归一化处理.这里有个无偏差,以及偏差 无偏差其实就是/n-1,适度缩小由于样本导致的偏差的 分母,从而,弥补,由于样本数据量不足导致的,结果偏小的情况. 偏差,就是不设置ddof,也就是直接/n,那么偏差就会大一些.身高,体重,年龄 18 75 23 ,这样一个样本数据,其中75体重,是一个特征,他可以有很多数据,比如75 65 等等,那么,这个特征的均值.就是。,也就是比总体标准差是偏小的,所以这个时候,给分母,减小一点n-1,这个时候,让样本标准差,增大一点,这样。

2024-09-22 23:18:56 81

原创 RuoYi-Cloud-Plus中ruoyi-monitor项目源码修改_界面修改_SpringBootAdmin源码编译修改_界面修改---SpringCloud工作笔记204

2.springbootadmin有自己的界面风格无法跟系统整体,风格融合,所以需要修改界面,ruoyi-monitor项目中,没有springbootadmin的源码,springbootadmin是以jar的形式导入到ruoyi-monitor中的.拿着打包出来的jar包,然后,替换掉,之前ruoyi-cloud-plus项目中,ruoyi-monitor子项目,引用的spring-boot-admin-server-ui-2.7.10.jar。

2024-09-14 18:37:19 193

原创 SpringBootAdmin源码修改编译002_踩坑记录一堆坑_记录过程_没有成功---VUE工作笔记0027

然后我们从其他spring-boot-admin-sample-custom-ui中找到这个autoprefixer组件,然后复制到,中的package.json中的这个copy-webpack-plugin 这个组件的版本,可以看到是5.1.2版本的.说[email protected]的版本 需要使用node 8 10 12 14 16 17的版本,而我安装的是。spring-boot-admin-server-ui项目中的package.json中去,然后再去执行。

2024-09-14 11:01:42 365

原创 springbootadmin源码编译修改001_node版本管理工具nvm_任意切换node版本_没有成功记录过程---VUE工作笔记0026

但是springbootadmin的源码编译很麻烦,主要是由于,springbootadmin-server-ui这个项目,因为他是一个前后端分离的。然后在pom.xml中去下载node和npm,然后执行命令去npm install 然后去编译,打包的过程.他编译的时候是使用Maven对vue项目进行的打包,会自动去下载node和npm对应的版本,然后执行命令,然后再去安装一个nodejs,去下载就可以了,直接安装,选择一个目录。打开settings.txt文件,然后,将上面的变量放到文件中.

2024-09-13 11:38:08 341

原创 ​​NIFI汉化_替换logo_二次开发_Idea编译NIFI最新源码_详细过程记录_全解析_Maven编译NIFI避坑指南002---大数据之Nifi工作笔记0069

这里报错的这个包,单独找到,可以先去,右键pom.xml relaod project 导入一下依赖,然后再去,单独,使用右边栏Maven,package执行一下。Maven的本地仓库中,去搜索lastupdated这样的文件,就是下载了一半没下载完的,全部删除,然后重新下载.内存溢出了.这个就需要设置内存,在第一篇就已经说过了,设置Maven编译时候使用的内存设置大一些.可以看到这个地址,在里面搜索就搜到了,然后点击jar(361.9MB)去下载就可以了.如果依赖多次下载失败,那么,可以到。

2024-09-06 17:42:59 278

原创 NIFI汉化_替换logo_二次开发_Idea编译NIFI最新源码_详细过程记录_全解析_Maven编译NIFI避坑指南001---大数据之Nifi工作笔记0068

由于需要对NFI进行汉化,以及二次开发,首先要下载源码以后编辑通过,NIFI的源码,项目非常多,编译过程中需要编译超过570个jar包,同时编译过程很慢需要30多分钟.1-3.注意,使用Maven的阿里云的源,很可能下载不全依赖,导致失败,即使你科学上了网也是不行的,也会有个别的jar包依赖下载不下来,1.首先下载源码,就是上面提供的地址,这个是nifi-1.26.0的不是最新的源码,当然如果你下载最新的源码也是一样的.首先介绍一下,这个是一个公司根据nifi进行定制开发的,已经汉化,但是不能商业化使用.

2024-09-06 16:55:40 312

原创 KubeSphere核心实战_kubesphere部署es_02_使用kubesphere创建es工作负载_指定配置集_子路径_创建集群内部以及外网可访问服务---分布式云原生部署架构搭建050

弹出点击添加子路径,这里我们写入 elasticsearch.yml 这个表明,就是存在子路径,也就是说,只会把我们指定的只路径中的文件进行配置同步。usr/share/elasticsearch/config/elasticsearch.yml 复制过来,然后点击,右边的 长方形,然后。/usr/share/elasticsearch/config/jvm.options这个路径中去,其实就是对应的文件中去。可以看到同样也是,配置对应的/usr/share/elasticsearch/config/

2024-08-22 17:02:46 126 1

原创 KubeSphere核心实战_kubesphere部署es_01_使用容器创建es_具名挂载_使用kubesphere创建es工作负载_创建配置集_存储卷---分布式云原生部署架构搭建049

然后es-config这个是采用的是句名卷挂载,而不是文件夹挂载, 就是将/usr/share/elasticsearch/config 挂载到本地的es-config。-v表示存储卷的位置配置,就是本地的/mydata/es-01/data 挂载到容器中的 /usr/share/elasticsearch/config。/var/lib/docker/volumes/ 中自动创建一个文件夹,然后这个文件夹,宿主机上的,就自动跟容器中的对应的文件夹关联起来.

2024-08-22 16:43:26 312

原创 大数据平台集群部署报错_datax-admin服务连续打印错误日志_Datax连接Mysql报错_由于jdbc连接字符串导致_记录028---大数据工作笔记0188

我们做了测试.在mysql 5.7.35 中是有问题的 在mysql 5.7.35-log版本中就没问题。1.本次部署的时候发现,datax-admin服务中的日志,不停的打错误日志,导致日志体积迅速变大.这个链接地址主要是两个地方有问题,1.useSSL=true 需要修改成 useSSL=false。在这里添加上配置在seata-server.properties这个文件中进行配置.可以看到,提示说,可能IP 端口 用户名 密码错了,实际上这些都没有错误。添加上这个配置就可以了.

2024-08-20 16:56:44 114

原创 大数据平台集群部署报错_hostname修改不重启导致_hbase无法启动_8080端口和zookeeper占用的8080端口冲突_jar包启动很慢_记录027---大数据工作笔记0187

在部署大数据平台hbase集群的时候,本次发现两个问题,需要记录,以后部署的是,要注意.1.由于系统修改了hostname. vim /etc/hosts 文件.这里原来是host5 改成了hadoop2531,这种情况下要注意.必须重启,如果不重启,那么,hbase集群,启动的时候就会报错,找不到对应的地址了就.一定要保证:这里变成了,对应设置的主机名以后,再去配置启动hbase.2.上面的问题解决以后,启动zookeeper集群,然后启动zookeeper集群以后,然后再去启动hbase,发现也启动不起

2024-08-17 14:51:27 124

原创 KubeSphere核心实战_kubesphere部署redis02_创建redis现指定存储卷_配置外网访问服务---分布式云原生部署架构搭建048

如果我们把mysql的副本数量修改成3,比如说,这个时候,这3个mysql,会使用,同一个存储卷,就是我们之前创建的那一个。系统就会自动为,这多个redis副本去自动创建存储卷,这样,每个redis副本都有自己的存储卷,这种情况是比较好的.当我们开启多个mysql副本的时候,他会把数据,都存在我们之前创建的这个mysql-pvc存储卷中,这样是不合理的,这说明,我们创建工作负载的时候,现创建存储卷的话,那么,存储卷会和副本,绑定,也就是,每新增一个副本,就会为这个副本。

2024-08-17 14:29:17 207

原创 KubeSphere核心实战_kubesphere部署redis01_为redis指定配置文件_指定存储卷_配置服务---分布式云原生部署架构搭建047

可以看到启动命令就是redis-server 然后,对应的参数是/etc/redis/redis.conf。然后再去添加容器,这里从官网,输入redis,让他自己去搜索就可以了,可以看到,让后,也可以。然后我们再来,部署一下redis,可以看到,首先去容器官网去找到对应的redis的镜像然后。然后,挂载路径主要是,这里根据我们之前规划的,填写,读写,然后是容器中的/data目录。可以看到这里,我们选择配置文件是只读的,然后放到容器的/etc/redis文件夹下。

2024-08-17 14:27:26 256

原创 KubeSphere核心实战_kubesphere部署mysql有状态副本集03_新建集群内部访问服务_以及外网访问mysql服务---分布式云原生部署架构搭建046

但是我们选择外网访问,选择NodePort的方式的时候,点击创建报错了,可以看到。可以看到最终,我们就做了两个服务,一个可以在集群内部访问,一个在外网也可以访问.左边点击服务是自动生成的,可以看到这个服务名称是his-mysql-glgf。可以看到现在我们就是创建了两个服务,第一个服务,可以使用域名访问。对于集群外部可以访问的,在集群内部,外部都可以访问,可以看到。可以看到这里,在服务中默认有个生成的服务,是自动生成的。可以看到也有说明,集群不为服务生成IP,只在内部访问。

2024-08-06 18:10:42 106

原创 KubeSphere核心实战_kubesphere部署mysql有状态副本集02_给mysql应用配置配置集_配置集修改热更新_创建mysql工作负载---分布式云原生部署架构搭建045

msyql本身不支持,因为配置文件变化,以后,他不会自动重启,让新的配置文件生效,这个是遗憾的地方。我们进入容器内部去看看,可以看到,进入到/ect/mysql/conf.d文件夹,就可以看到。然后如果我们,进入到配置中心的配置这里,我们点击,我们创建的mysql-conf配置集。点击以后,然后可以看到,我们可以选择,我们之前创建的mysql-conf这个配置集。然后保存以后,他会自动同步到使用这个配置集的,容器中去,比如,我们等一会去。我们点击开我们创建的mysql应用,然后可以看到有个重新部署,

2024-08-06 18:09:19 102

原创 phoenix连接hbase报错Can not resolve hadoop120, please check your network_记录026---大数据工作笔记0187

其实做法跟这个博文中写的一样,其实就是删除原来的/hbase的配置,然后,重新启动hbase注册到zookeeper就可以了。然后再去先关闭hbase /data/module/hbase-2.4.11/bin/stop-hbase.sh。重新去开启,首先开启zookeeper,然后再去开启hadoop,然后再去启动hbase,然后再去连接看看。我查询了,hadoop的安装目录,hbase的安装目录,zookeeper的安装目录,都没有查询到.那么,hadoop120是在哪个地方呢?

2024-08-05 17:30:40 305

原创 KubeSphere核心实战_kubesphere部署mysql有状态副本集_创建mysql存储卷_创建配置集_拉取容器mysql镜像_配置应用占用cpu和内存---分布式云原生部署架构搭建044

然后我们选择读写的方式 挂载到容器的/var/lib/mysql 就是存储mysql数据的地方对吧.配置文件是/etc/mysql/conf.d这个文件,这个,我们可以用k8s中的配置集来做。首先我们来到工作负载,因为我们部署的mysql是有状态副本集,所以这里我们点击创建。我们看一下,我们把/var/lib/mysql 也就是mysql存储数据的目录。然后再去下一步,挂载存储,这里,我们点击添加存储卷模板,表示重新创建存储卷,然后,再去填写,比如,我们限制,mysql 占用 几核心的cpu。

2024-07-26 15:12:52 500

原创 KubeSphere核心实战_使用kubesphere给kubernetes部署中间件_步骤说明_kubesphere_工作负载_服务_存储管理_应用路由说明---分布式云原生部署架构搭建043

然后我们再来看对于端口,开放,如果type是clusterIP那么开放的端口,只能在集群内部可以访问,不能对外访问。首先去创建工作负载,其实就是pod,然后再去创建服务service,决定是集群内访问,还是集群外也可以访问。然后我们再来看,部署完了以后,就可以看到部署的应用内,在容器组中显示,其实就是对应了pod。创建好以后,他会自动的,帮我们创建,工作负载,然后创建 服务 然后再去创建 应用路由。然后在kubesphere中,对应服务这块,就是服务这里,可以看到可以创建服务对吧。

2024-07-24 11:25:42 7566

原创 KubeSphere核心实战_kubesphere多租户_添加企业空间_创建项目_给项目邀请成员---分布式云原生部署架构搭建042

可以看到在这个项目里面,有很多的功能,他可以用,比如有应用 服务 工作负载 应用路由等等.可以看到,进入这个项目以后,下面有个项目设置,点击项目成员,点击邀请,就给为这个项目邀请成员。可以看到邀请进来,但是做为wuhan-viewer角色对吧,观察者,只能看对吧.然后我们再去登录pm-wang,王总监,将这个客户wang添加到,具体的项目中去。big-li登录去看看,可以看到,由于pm-wang 王总监把他邀请进了。然后去点击右边的邀请成员,把wuhan-boss邀请进来,但是他是。

2024-07-24 11:24:39 7334

原创 KubeSphere核心实战_kubesphere多租户使用_kubesphere_企业空间划分_添加企业空间成员_设置企业空间角色---分布式云原生部署架构搭建041

然后可以看到,现在在wuhan这个企业空间中,就有 wuhan-boss 和 boss-li 这两个成员了。可以看到登录以后,可以看到,shenzhen-boss,也可以看到shenzhen这个企业空间。然后wuhan-boss这个账号,我们再使用这个账号,去在邀请成员去,给wuhan。wuhan-boss这个账户,看看wuhan企业空间,可以看到,在企业成员中,有。这个时候可以,使用wuhan-boss账号,把boss-li移除掉,是可以的。现在企业空间设置中,的企业成员,只有boss-li对吧。

2024-07-23 19:44:38 7446

原创 KubeSphere核心实战_kubesphere多租户使用_hr账户_创建其他用户_入职普通用户_boss用户---分布式云原生部署架构搭建040

然后我们来看,这个划分,首先,看看kubesphere,有,企业管理员 workspaces-manager :这个相当于一个集团的总公司领导,他可以来创建,比如武汉分部,深圳分部等.然后我们继续看,现在我们需要一个boss-li账户,这个是整个集团的boss,可以添加,分部,比如深圳分部,济南分部等等..现在我们有了boss-li这个总boss,有了几个企业空间,有了hr-zhang,人力资源,那么现在。首先添加wuhan-boss,这个主意,要使用hr-zhang这个账户登录以后,然后来添加。

2024-07-23 11:45:46 2254

原创 KubeSphere核心实战_在Centos7.9使用kubekey一键构建k8s集群完整平台_多节点自动化部署kubesphere_k8s集群---分布式云原生部署架构搭建039

可以看到其实就是指定了配置文件,kubernetes的版本和kubesphere的版本。可以看到我们有三台机器,并且内部互通.点击复制标志可以复制它的内网的ip地址。进行一键部署的,现在我们准备3台机器,用kubekey,部署k8s集群.上一节我们在一个单节点上部署了kubesphere,使用kubekey。可以看官网,有all in one 就是所有的都装在一个机器上.也是首先执行上面的这两个命令,下载配置文件。可以看到安装步骤,跟着做就可以了.然后可以看到有个多节点安装,打开。连接上三台机器,首先。

2024-07-22 08:58:14 2130

原创 KubeSphere核心实战_在Centos7.9/linux单节点使用kubekey一键安装完整平台_启用插件_一键安装docker_k8s_kubesphere---分布式云原生部署架构搭建038

现在我们在单个linux节点上部署一个完整的,包含k8s,docker,kubesphere的环境,可以看到,正在running,但是还有kubesphere-system 两个在创建容器中,等等。现在我们安装了kubesphere以后,但是这个功能少很多,很单一,但是后面可以开启其他功能。但是我根据需要,安装了一个全功能版本的kubesphere,开启了很多功能,安装需要10几分钟,需要等, 提示是否安装,就输入yes。可以看到注意下载以后,记得,给kk,添加上执行权限.

2024-07-22 08:55:07 135

原创 KubeSphere核心实战_kubesphere全功能安装_启用kubesphere的热插拔插件---分布式云原生部署架构搭建037

这两个文件,上面是直接使用kubectl apply 去应用了,我们先下载,因为直接从官网下载可能下不下来,因为网络的原因.这个上一节已经安装好了,这个千万不要打开.打开了,他会去官网去下载metrics_server,会下载不下来,由于网络的原因。可以看到这里,首先storageClass,后面提示,说如果没有默认的,就写上自己的我们已经安装了default的存储类型。kubedege这个是边缘计算相关的,这个我们暂时打开也可以,因为我们没有边缘计算的设备.

2024-07-21 23:05:41 523

原创 KubeSphere核心实战_安装默认存储类型_实现pv和pvc存储空间动态创建_安装Metrics-server_动态监控集群以及pod_内存及cpu资源占用情况---分布式云原生部署架构搭建036

可以看到,在/nfs/data 目录下,创建一个不安全的,可读写的,可异步的不是root也可以使用的,其他存储空间,这个配置写入到。然后我们再去,做一下同步,其实就是做两个nfs的客户端,上面我们做的是nfsserver,现在我们。之前我们创建pv和pvc的时候,我们是用命令,手动去创建的,我们事先创建好一些存储空间,可以看到安装,其实也就是,用一个配置文件,之间在k8s中进行apply就可以了,安装这个可以来监控我们的集群,以及集群中的pod的,内存和cpu等的,占用情况.

2024-07-19 10:58:27 4099

原创 KubeSphere核心实战_KubeSphere平台安装_在kubernetes上安装kubesphere_安装k8s集群_加入worker节点---分布式云原生部署架构搭建035

这个时候,首先要找到k8s master节点的ip地址,额可以看到,ip a查看,找到以后.然后现在我们安装了docker,然后安装了基本环境,然后再开始安装kubernetes。可以看到,kubeadm ...这个就是,构建多个master节点,构建高可用的.然后我们再来看,上面我们记录的关键信息,初始化master节点的时候。然后我们再来青云看一下咱们的服务器,可以看到,他们所属的网络。可以看到,创建了很多的pod,等待这些pod创建完成.去执行. 可以看到就是,创建了.kube文件夹,然后。

2024-07-19 10:58:10 162

原创 KubeSphere核心实战_KubeSphere平台安装_简介_升级配置与重置系统_在kubernetes上安装kubesphere_安装k8s集群_基础环境---分布式云原生部署架构搭建034

这个很强大,可以看到支持多租户,并且多集群,比如我们可以建一个dev开发的k8s集群,建一个test集群,建一个prod集群等。安装方式有三种,可以看到,首先在如果你已经有了一个k8s的集群,那么你想用kubesphere管理起来,那么需要安装上。可以看到删除旧的docker以后,然后,把剩下的命令,进行复制,回车直接三台机器全部执行就可以了.可以看到选择三台机器,然后,更多操作中找到重置系统,然后输入密码就可以了。然后再去调整机器的配置,因为需要安装很多东西,所以可以看到上面的配置.

2024-07-18 11:30:49 387

原创 k8s核心操作_存储抽象_K8S中使用Secret功能来存储密码_使用免密拉取镜像_k8s核心实战总结---分布式云原生部署架构搭建033

可以看到这个是镜像内容,注意这里面没有引入secret,上面的配置文件引入了,可以先去掉.看效果。比如我们在公共仓库中个guignginx仓库,我们看到右边,显示他现在是。可以看到拉取镜像的时候报错了对吧,说access denied 因为镜像是私有的.然后下面我们会看一个更强大的,工具,可以进行完全在线,将监控等等,都统合起来。我们现在是从公共仓库拉取的,如果我们从私有仓库拉取,有密码。比如我们有个pod,他的镜像,如果是需要密码的,那么。

2024-07-17 17:03:31 8743

原创 k8s核心操作_存储抽象_K8S中使用ConfigMap抽取配置_实现配置热更新---分布式云原生部署架构搭建032

现在有个问题,是上面我们利用pv和pvc 就是持久卷 以及 持久卷申请,实现了对存储的,pod删除以后,对其使用的存储空间也进行了删除,那么还有个问题,对于redis这种我们希望,他的配置也管理起来.这个配置就指向了name是redis-conf的这个配置,可以看到,取他的key是redis.conf path也是redis.conf。这里就是要把key:redis.conf的内容,拿过来,然后挂载到,path:也就是redis.conf的路径下,这个路径。

2024-07-17 15:45:27 8730

原创 使用NIFI连接瀚高数据库_并从RestFul的HTTP接口中获取数据局_同步到瀚高数据库中---大数据之Nifi工作笔记0067

请求,可以看到这个时候就需要首先,在上层,去连接一个GenerateFlowFile这个处理器,数据从这里流过以后,估计还是有问题,应该是CustomText,写入了json,然后需要用表达式提取里面的内容把,后面有了进展会写在这里。然后还可以用InvokeHTTP处理器来进行,获取get或者post,或者put,或者delete。其实,只要配置好了链接的,连接字符串,和驱动,任何支持JDBC的数据库都可以连接的.然后,去更新值,继续获取数据,是这个思路,后面实现了会补充上.

2024-07-16 10:04:08 253

原创 k8s核心操作_构建一键上云002_K8S+harbor_部署微服务_WebSocket使用_K8S前端配置_XXLJob配置_微服务中Nacos配置---分布式云原生部署架构搭建031

再来看这个front.yaml 上面是内容.这些yaml是用来部署k8s的deployment的,这些的使用是在.这些yaml文件好像都没有用到,都只是,前面的脚本就解决了,这里把。这里还有一个backend-svc.yaml文件。配置文件也都保留到这里了,以便用到的好参考.

2024-07-16 10:03:39 2341

原创 k8s核心操作_构建一键上云001_K8S容器+harbor容器本地化搭建云原生环境_一键部署SpringCloud Alibaba 分布式微服务+Vue前端---分布式云原生部署架构搭建030

然后这里有个build.sh脚本,这个就是用来,构建镜像,并且把镜像推送到harbor仓库,然后再把镜像,部署到k8s中的,一个指定的namespace中。注意这个打包的镜像,其实就是一个nginx,只不过这个nginx,携带了,前端的代码,在自己的/usr/share/nginx/html文件夹中.并且可以看到,把dist目录,中的内容,复制到了nginx的 /usr/share/nginx/html目录中了.然后看一下这里,前端部署依赖使用的,是nginx,因此,依赖了nginx.

2024-07-15 10:19:30 216

原创 k8s核心操作_存储抽象_K8S中的持久卷与持久卷申请_PV/PVC理解与搭建_解决联动删除动态存储管理---分布式云原生部署架构搭建029

然后当pod需要存储的时候,会写一个PVC ,PV申请,提交以后,会根据这个PVC来分配PV,找一个比较合适的,如果需要1G,看看有没有1G的pv,如果有就分配,没有就,分配一个比如10G的也一样,但是他只占用1G的空间,其他空间还可以给其他PVC用.可以看到我们可以有个PV池,这个PV池中,有各种的PV,有的PV大小是1G,有的是20MG,有的是5G,而这些PV,分布在不同的机器中。然后当我们删除pod的时候,他申请的pvc也可以一看删除掉,而pvc记录了,用的是哪块pv所以就可以,将他使用的文件。

2024-07-15 10:17:56 174

原创 k8s核心操作_k8s中的存储抽象_基本概念与NFS搭建_Deployment使用NFS进行挂载---分布式云原生部署架构搭建028

这个就是将172.31.0.4:/nfs/data nfs server 中的这个节点中的/nfs/data这个文件夹 挂载到/nfs/data 本地的node1 的这个目录上去。上面/nfs/data 是NFS主节点创建的目录, 然后/bak/data是在 NFS的从节点node1 node2上的目录,实际上。NFS的主节点master节点,创建一个目录/nfs/data 然后我们再在node1,节点,node2节点,分别。

2024-07-12 10:28:36 4332

原创 k8s核心操作_Ingress高级功能_地址重写功能_流量限制功能配置_k8s服务网络模型总结---分布式云原生部署架构搭建027

然后流量经过ingress层,到达 service-a...等等 层,其实就是根据我们配置的ingress的规则,来调用不同的service对吧.可以看到是初始化的时候分配的,pod-network-cidr=192.168.0.0/16是这个网段。也就是当在浏览器访问左边的地址的时候,实际上是访问的右边的地址,这个就是重写,我们去试试。可以看到整体,首先流量可以经过一个LB,负载均衡,这个可以是自己配置的,可以是购买的。nginx的默认内容了.可以看到上面的现象对吧,多刷新几次,都是显示的。

2024-07-11 09:32:33 174

原创 k8s核心操作_Ingress统一网关入口_域名访问配置_ingress域名转发规则配置_根据域名访问不同服务---分布式云原生部署架构搭建026

可以看到 出现了ingress-nginx 的service,在ingre-nginx这个命名空间中,有两个,一个是。然后我们去编辑一下,我们添加一个nginx,让访问demo.atguigu.com的时候,访问/nginx 这个路径。包含了,hello.atguigu.com 和 demo.atguigu.com两个 域名对吧。然后修改了demo.atguigu.com:31405/nginx 转给了nginx-demo。

2024-07-11 09:31:51 330

nifi-web-ui.zip nifi开源项目源码修改后的版本1.26.0的版本 数据清洗中心

nifi-web-ui.zip 基于开源nifi的源码修改的版本1.26.0的版本 数据清洗中心 由于项目中需要,原有的NIFI界面无法满足客户需求,首先基于开源的NIFI项目修改的源码,使用方法非常简单,下载此项目以后,直接覆盖到对应的nifi-web-ui项目,然后 去编译nifi就可以了,编译需要的时间有点长,项目大概有600多个子工程,大概30分钟编译完成. 具体如何编译可以去看笔者的博文. 里面详细介绍了如何去编译nifi项目.其他版本的没有测试,自己可以测试一下,覆盖以后看能不能使用. 另外由于整体项目实在太大了,1个多g了,而且其他项目也没有修改,所以就只上传了这个修改的部分.

2024-10-25

瀚高数据库连接开发工具-2024-hgdbdeveloper.zip

这个是用来连接瀚高数据库的工具,连接pg的工具是连接不了,瀚高数据库安全版的,所以还是需要使用,专门的工具来连接,使用方法非常简单,跟使用操作mysql的navicat差不多.

2024-06-29

datax插件-瀚高数据库支持插件-highgowriter.zip

datax插件_瀚高数据库同步支持插件_highgoreader.zip 这个是自己工作中用到了,但是原生的datax是不支持瀚高数据库的,但是开发也不是特别难,自己就开发了一个,这个是reader,使用方法也非常简单,就先安装好datax以后,然后把这个reader压缩包,进行解压,然后放到,安装好的datax的,对应的、/datax/plugin/writer 或者是 /datax/plugin/reader 中就可以了.

2024-06-29

datax插件-瀚高数据库同步支持插件-highgoreader.zip

datax插件_瀚高数据库同步支持插件_highgoreader.zip 这个是自己工作中用到了,但是原生的datax是不支持瀚高数据库的,但是开发也不是特别难,自己就开发了一个,这个是reader,使用方法也非常简单,就先安装好datax以后,然后把这个reader压缩包,进行解压,然后放到,安装好的datax的,对应的、/datax/plugin/writer 或者是 /datax/plugin/reader 中就可以了. 如果想自己开发其他的插件可以参考官网的解释.

2024-06-29

瀚高数据库迁移工具2024版.zip

瀚高数据库迁移工具2024版.zip 是一个旨在帮助用户高效、可靠地将数据从瀚高数据库从一个环境迁移到另一个环境的工具。这个工具特别适用于需要进行数据库升级、迁移或备份恢复操作的用户。通过使用这个工具,用户可以轻松地将数据从瀚高数据库的一个版本迁移到另一个版本,或者在不同的服务器、操作系统和硬件平台上迁移数据。 这个工具的主要特点和优势包括: 1. 支持多种迁移场景:无论是同一版本之间的迁移,还是跨版本的迁移,这个工具都能够提供支持。同时,它还支持在不同的服务器、操作系统和硬件平台之间的迁移。 2. 高效的性能:这个工具采用了高效的数据迁移算法,可以快速地将大量的数据从一个环境迁移到另一个环境,同时保证数据的完整性和一致性。 3. 用户友好的界面:这个工具提供了一个直观、易用的界面,用户可以通过简单的点击和选择,完成复杂的迁移操作。 4. 安全可靠:这个工具在迁移过程中采用了多种安全机制,如数据加密、数据验证等,确保数据的安全和可靠。 5. 完善的文档支持:这个工具附带了详细的使用说明和操作指南,用户可以通过阅读这些文档,了解工具的使用方法和操作步骤。

2024-06-12

MSVCR120.dll缺失-瀚高数据迁移工具修复DLL.zip

这是一个专业的修复工具,旨在解决瀚高数据库迁移过程中可能出现的问题。在使用此工具时,用户首先需要启动程序,随后选择需要迁移的数据库,指定数据迁移的源端和目标端。然而,有用户反映在这一过程中遇到了报错提示,显示某个动态链接库(DLL)找不到。为了帮助用户顺利解决这个问题,我们提供了这个工具的详细使用说明,包含在压缩包中。用户可以参考这些说明来排除故障,确保数据库迁移工作的顺利进行。我们建议用户仔细阅读使用说明,遵循指示步骤操作,以充分发挥修复工具的作用,保障数据库迁移的成功实施。

2024-06-12

Semantic-Kernel-MyPlugins.zip

以上是人工智能_大模型028_大语言模型开发框架_Semantic Kernel详细介绍_框架安装_Semantic Functions脚本编写---人工智能工作笔记0163 这个博文中的案例文件,是包括了,如何使用Semantic Function进行,利用自然语言,编写函数. 在当今的AI技术领域,大模型和大型语言模型正变得越来越流行,因为它们能够处理更复杂的任务并生成更高质量的输出。Semantic Kernel是大语言模型开发框架的一个例子,它提供了一个强大的工具集,用于构建和部署高级语言处理应用程序。 Semantic Kernel框架的安装和使用相对简单,它支持多种编程语言和平台,包括Python、C#和JavaScript。这个框架的核心是Semantic Functions,这是一种特殊的函数,它允许开发人员使用自然语言来定义和处理逻辑。这意味着,你可以用简单的英语句子来编写代码,而不是传统的编程语言。 介绍了如何使用Semantic Functions来编写函数。这个资源包括了多个案例文件,这些案例文件展示了如何使用SK

2024-04-10

highgowriter-highgoreader-dataxcode.zip

highgowriter_highgoreader_dataxcode.zip 这个资源用来给datax扩展对瀚高数据库的支持能力,可以使用这个插件,实现数据从mysql/postgresql等其他数据库同步到瀚高数据库,或反向同步 这个资源是一个为DataX工具定制的插件,专门用于增强DataX与瀚高数据库之间的数据同步能力。通过这个插件,用户可以方便地将数据从MySQL、PostgreSQL等其他类型的数据库迁移或同步到瀚高数据库,同时也支持将数据从瀚高数据库同步到其他类型的数据库。 具体来说,这个插件扩展了DataX的数据同步功能,使得用户在执行数据迁移任务时,能够更加灵活地处理与瀚高数据库相关的需求。它能够帮助用户简化数据同步的流程,提高数据同步的效率,并且保证了数据的一致性和准确性。

2024-04-07

docker-compose-linux-x86-64-v2.26.0.zip

docker-compose-linux-x86_64.zip 好吧上周发布的v2.26.0的最新版,给大家准备好了已经,如果你下载不下来,从这里取了直接用吧. 为了确保您能够顺利使用Docker Compose的v2.26.0最新版本,我已经提前准备好了适用于Linux x86_64架构的最新版Docker Compose文件——`docker-compose-linux-x86_64.zip`。如果直接从官方GitHub仓库下载遇到困难,您可以随时使用我提供的这个文件。这样,您就可以跳过在线下载步骤,直接开始配置和使用Docker Compose了。希望这能为您带来便利!

2024-03-29

docker-compose离线版.zip

Ruoyi-Cloud-Plus_使用Docker部署分布式微服务系统---SpringCloud工作笔记200 这个资源可以配合这个博文使用,这里面用到的软件,如果不用这个,自己去下载,会很慢,所以直接放到这里了,希望对大家有帮助. Ruoyi-Cloud-Plus是一个基于SpringCloud的分布式微服务系统,它集成了多种实用的企业级开发功能,如权限管理、数据权限、工作流、三方登录等等。为了方便开发者更快地部署和使用这个系统,这里提供了一个包含所有必要软件的Docker镜像资源。通过使用这个镜像,可以避免由于网络问题导致软件下载缓慢或不稳定的情况,从而大大提高开发效率。 这个博文详细介绍了如何利用Docker来部署Ruoyi-Cloud-Plus分布式微服务系统。通过阅读这篇博文,您可以了解到如何快速搭建开发环境,以及如何使用SpringCloud的各种组件来构建一个高效、稳定的微服务架构。希望这个资源和博文能够为您的开发工作提供有力的支持,让您的项目进展更加顺利。

2024-03-29

ChatGLM-6b-int4基础模型文件.zip-这个是除了比较大的文件的其他文件-其他大的模型文件可以在清华云下载

ChatGLM-6b-int4基础模型文件.zip_这个是除了比较大的文件的其他文件_其他大的模型文件可以在清华云下载,在安装ChatGLM大模型的时候,发现,模型文件特别大,而小文件,又在国内下载特别慢就整理出来了. config.json configuration_chatglm.py gitattributes ice_text.model LICENSE MODEL_LICENSE modeling_chatglm.py quantization.py quantization_kernels.c quantization_kernels_parallel.c README.md tokenization_chatglm.py tokenizer_config.json 这些文件.

2024-02-29

nifi-p12-store.zip 这个文件就是nifi-1.23.2今年最新8月份出的最新版需要的加密文件

nifi_p12_store.zip 这个文件就是nifi-1.23.2今年最新8月份出的最新版需要的加密文件,我们下载最新的nifi-1.23.2这个版本的安装文件以后,解压以后,启动是启动不了的,原因是缺少,这个keystore.p12文件和truststore.p12文件,这两个文件放到conf下面以后,然后去配置nifi.properties文件,配置以后,指定了这两个p12文件的位置,然后去启动nifi就可以启动了,其实,比这个版本低的nifi也是这样的,弄好久才找到了这个问题所在啊...分享 2023-10-08 21:18:18这个时间亲测 可以的..下载去用吧

2023-10-08

瀚高DB企业版最新版连接操作工具2023.zip

瀚高DB企业版最新版连接操作工具2023 这个是在安装完了以后可以用这个工具像用Navicat操作mysql数据库一样来操作瀚高DB数据库. 这个可以结合对应的博文: Centos7.9安装瀚高数据库企业版6.0.4_并开启远程连接_使用瀚高连接工具操作_亲测成功---国产瀚高数据库工作笔记003 可以结合这个博文来看,这里面写了如何安装,以及如何用这个操作连接工具远程连接使用瀚高DB数据库.

2023-07-21

瀚高DB企业版最新6.0.4官方安装教程.zip

瀚高PG的安装本来以为很简单,装上就可以了,但是安装了两天,工作经验10年,安装了两天,很麻烦的还是...要注意,首先下载的时候要和对应的系统匹配下载,比如你是Centos,就要下载Centos版本的,我是安装在了openeuler华为的欧拉系统上了,出现了一堆的问题,就很麻烦, 解决了很久,...最后还是没有安装上.. 最后还是换成了centos7来安装的,安装后又找连接工具,这个时候发现连接工具在官网上也没有找到下载的地方,折腾了很久是找到了,可是连不上,又配置远程连接,最后总于弄好了. Centos7.9安装瀚高数据库企业版6.0.4_并开启远程连接_使用瀚高连接工具操作_亲测成功---国产瀚高数据库工作笔记003 https://credream.blog.csdn.net/article/details/131836438?spm=1001.2014.3001.5502 对应了我的这个博客可以参考,希望能帮助到你们把.

2023-07-21

NIFI-MySqlToMySql增量同步数据实时采集-实现了日期类型-以及空值处理-插入已存在变更新-更新未存在变插入.zip

NIFI_MySqlToMySql增量同步数据实时采集_实现了日期类型_以及空值处理_插入已存在变更新_更新未存在变插入.zip 使用了NIFI1.21.0最新版,2023-06-20作者在这个时间做好的,这个大数据处理流程,已经实现了,增量mysql的cdc数据读取以后,在插入到目标mysql数据库的时候,如果碰到主键一样的id,就自动变成更新数据,如果在更新的时候碰到主键没有的id就自动变成插入操作,这个是比较符合实际应用情况的.

2023-06-20

NIFI1.21.0-大数据同步处理模板-MysqlToMysql增量同步-单表-处理日期-空值数据.zip

NIFI1.21.0_大数据同步处理模板_MysqlToMysql增量同步_单表_处理日期_空值数据.zip 是作者自己实际项目中用到的,自己学习后制作的NIFI流程模板文件,导入后可以直接使用, 实现了Mysql到mysql数据库的增量CDC数据的实时同步,通过过程中,实现了sql的拼接,以及对日期类型,和空数据类型的处理.

2023-06-20

NIFI1.21.0-Mysql和Postgresql到MysqlHbase-全量指定库和表同步到Mysql和Hbase.zip

NIFI1.21.0_Mysql和Postgresql到MysqlHbase_全量指定库和表同步到Mysql和Hbase.zip 是一个nifi的模板,实现了从mysql以及postgresql中同时读取数据,读取的时候支持,指定数据库和数据表进行同步,数据全量同步,可以同时同步到mysql数据库以及hbase数据库中.

2023-06-20

NIFI大数据处理-PostgresqlToMySql指定表多表-CDC增量数据实时同步.zip

这个项目花费了我比较多的心血,NIFI还是挺好用的,主要是很灵活,可以自己定制,我感觉比一些做CDC的工具,会更灵活一些,但是学习门槛高,现在用的还不是那么的多,很多东西需要自己去查阅官网去自己学习,然后,很多代码需要不停的尝试,才能知道对应的处理器,最终是应该如何使用. 上面的资源我弄了一个星期,终于实现了,把数据从postgresql数据库可以动态的,实时,读取postgresql的cdc数据然后根据cdc的内容,进行数据增量的同步到mysql数据库中去,而且还添加了,cdc数据的分页功能,如果cdc数据内容特别多就不用担心了. 然后还添加了数据表过滤的功能,比如你只想同步一个数据库中的3张表,那么这里面我已经帮你实现了,然后如果你想同步一个数据库中的所有的表,我也已经帮你实现了,你下载以后,直接导入到nifi中,然后配置好自己的数据源就可以直接使用了.

2023-06-12

K线理论-付费课程-实战经验-总结学习手册-2023-05-29.zip

首先是见顶的单根K线的形态: 1、大阳线见顶 也就是开盘在相对低位,收盘在最高价附近,强势状态非常明显,但是如果出现在股价相对的高位或者是上涨行情的尾声阶段的大阳线,往往就是见顶信号,如图: 大阳线见顶技术分析有一定的难度,单纯的按照大阳线本身来判断行情,很难判断准确,往往要结合后市的走势来判断,也就说一只股票当天出现大阳线后,是没有办法判断的,要后面几天的走势才能基本判断,一般大阳线过后连续两根阴线就要开始小心了。 付费炒股课程,学习总结 2、大阴线见顶 开盘价就是最高价,收盘在最低位附近,当大阴线出现在股价运用的相对高位区域,意味着空头处于主导。要堤防股价已经见顶,仅作为短线见顶的信号,也就是讲股票运行到了相对高位区域,出现了大阴线,一般称为乌云盖顶,切记是真阴线,不是假阴线,也就是说收盘价是低于昨日收盘价的 3、十字星见顶 十字星就是开盘价和收盘价都在同一个位置附近,在当天盘中有上攻和下跌的动作,但是都有没有突破,局面平衡,显示即将有方向性的突破,同样也需要结合后面几天的走势来判断是否是顶部,

2023-05-29

NIFI大数据模板-MySqlToPostGresql数据分页实时采集-带分页.zip

NIFI大数据模板_MySqlToPostGresql数据分页实时采集-带分页.zip 使用NIFI将数据实时同步到PostGresql中. 下载以后配置自己的mysql数据库连接池,包括连接地址,用户名密码 配置postgresql的数据库连接池,包括连接地址,以及用户名密码 然后启动流程进行数据实时同步

2023-05-25

NIFI大数据模板-HbaseToMysqlByPhoenix-实时数据同步带分页.zip

NIFI大数据模板_HbaseToMysqlByPhoenix-实时数据同步带分页.zip 这里面编写了一个NIFI大数据传输流程,使用phoenix从hbase中去获取数据,带分页获取数据以后,然后把数据同步到指定的mysql数据库中去,实现数据的实时同步. 下载以后配置一下对应的数据库连接池,以及数据库的用户名密码,就可以使用,导入就可以用,非常方便

2023-05-25

NIFI模板PostGreSqlToHbaseByPhoenix-数据从PostGresql实时同步到Hbase-带分页.zip

NIFI模板PostGreSqlToHbaseByPhoenix-数据从PostGresql实时同步到Hbase-带分页.zip NIFI大数据处理模板,导入以后可以直接将数据从postgresql从通过phoenix拉取到Hbase中去,注意这里,需要自己配置一下phoenix连接hbase的参数,包括集群的地址,指定用户名,密码,指定phoenix驱动的位置. 还要注意最好安装nifi1.21.0版本,这个版本笔者是测试过的可以用的

2023-05-25

NIFI大数据模板-PostgresqlToHbase数据实时采集-带分页.zip

如果你也需要利用NIFI进行数据同步,并且你用到了Postgresql数据库,想从Postgresql数据库中去获取数据然后,把数据同步到Hbase中去,这里我们使用的大数据存储工具,Hbase来存储原始数据. 我们需要把所有的关系型数据,以及文档数据等,存入到Hbase中,做为原始数据使用,所以这里 就利用NIFI做了一下. 这个模板导入到NIFI中去以后就可以直接使用,记得配置一下自己的Hbase集群的连接地址,以及Postgresql的连接地址.配置以后,直接启动,就可以进行数据同步了. 记得配置上对应的需要同步的表名以及字段.

2023-05-22

大数据Nifi处理-MySqlToSqlServer数据分页实时同步.zip

项目中需要的整理出来给需要的宝子们,实现了在大数据场景中,实时同步指定MySql数据源的数据,实时同步到SqlServer数据库中去. 下载以后使用的时候,需要配置一下自己的mysql数据源的用户名,密码,ip地址端口号信息,设置以后,在数据库连接池中,启动自己的数据库连接池. 然后再去配置一下sqlserver的数据库连接池,指定对应的IP地址,数据库名称,用户名,密码,然后去启动SqlServer数据库连接池. 最后启动所有流程,Nifi就会根据流程自动从mysql数据库中读取数据,读取数据有把数据同步到SqlServer中去

2023-05-19

MySqlToHbase数据分页导入到Hbase.zip

项目中自己用的,弄了很久,需要把数据从各种数据源导入到,我们的原始数据库,原始数据库采用hbase,来存储所有数据,那么这里就用的nifi,从其他数据源获取数据以后,然后导入到Hbase中去,这个是设计好的流程模板. 导入nifi中以后,直接启动,配置好自己的连接地址,就可以进行数据同步了.

2023-05-16

大数据处理NIFI模板-MySqlToMySql增量数据实时同步-利用Binlog实时同步数据.zip

花了作者好多时间,这个NIFI不得不说还是挺好用的,可以减少很多代码的编写,但是,由于资料太少了,应用案例也少,很多功能,网上都找不到,所以只能自己去研究,研究了很久... 终于攻克了,使用mysql的binlog功能,来实现,insert,update,delete数据的实时同步,增量同步,有了这个流程工具以后,同步数据就变得非常方便了. MySql的Binlog打开以后,然后直接把下载的模板导入到自己的nifi中去,然后配置好自己要同步的数据库和表,配置好数据库连接信息,就可以了启动实时同步了,太酷了...

2023-05-06

Nifi模板-PostGreSqlToMySql数据分页实时采集-带分页.zip

使用大数据处理工具NIFI,进行数据从Postgresql中导入到MySql中,实现数据的同步处理,处理的时候,是带有分页的,因为作者正在做相关的项目,而,用nifi同步数据好说,如何,进行数据的分页同步不好弄,这里,主要是,采用处理器,自动生成分页sql,来进行数据的分页. 弄了好久终于弄出来了,希望能帮到你,这个模板可以导入到nifi中直接使用.非常的方便.

2023-05-06

2023自己实操-验证过的-通达信公式-胜率很高-神技-趋势+底部钝化+底部结构+选股+风口-一整套-.zip

作者自用的一款胜率很高,自己根据经验积累调整,实现的几个指标,交了几年学费总结的. 导入到通达信中就可以用,手机电脑端都可以用,注意包含源码的哈,自己通过这一整套指标,已经有不错的营收,作者自身是程序员,公式是自己根据经验,调整,并且实战操作,胜率很高,分享出来着实有点舍不得,炒股者...往往都是赔钱...我也一样,前好几年都是赔了不少,教了很多学费...经过长时间摸索,才有了这个东西...珍惜吧... 包含了从选股指标 到 风口 到 趋势 到钝化 到结构 5大指标 同时共振使用,效果很好,胜率很高自己一直在用...多了不说了.

2023-04-28

整理了好久-2023最新Java面试题-如果你在找工作-希望能帮到你了

以前的面试题都太旧了,这两年技术发展太快了,找的面试题都是很多旧的,因此整理了一圈,整理出很多新的问题,包括,Redis,Java,Java系列的大数据等内容,很全面,今年工作并不好找,祝你早日找到心仪的好工作.加油~

2023-04-28

2023-04-28最新-自己封装整理-可直接使用-亲测可用-多模态AI合集-ChatGPT4-ChatGpt3.5.zip

2023-04-28最新_自己封装整理_可直接使用_亲测可用_多模态AI合集_ChatGPT4_ChatGpt3.5.zip 人工智能辅助可以帮助我们的工作,生活,提高更多的效率,上面是作者自己整理的,常用的,可用的,无需登录注册就可以使用,来提高我们的工作效率,包括写文档,各种文档,比如论文,产品方案,详细设计,概要设计,需求文档,以及写代码,遇到问题让他给出解决思路,个人用的非常爽...也许真的未来,我们和AI共存..

2023-04-28

大数据Nifi模板-Mysql数据分页同步-实现了分页功能-MySqlToMySql数据分页实时采集-带分页功能.zip

1.最近在用大数据处理工具nifi做大数据处理,纯界面化的操作很方便,但是资料少,就这个mysql分页弄了好久,分享出去了 2.如果你用到了点个赞吧,笔者自己弄了好几天,测试过了可以放心用 3.配置好自己需要同步的表,修改一下数据连接池记得修改成自己的. 4.下载以后配置一下直接启动就可以用了

2023-04-24

大数据nifi模板,用来实时从mysql数据中读取数据到另一个mysql的数据库中

1.最近在做大数据项目,使用了nifi,确实好用,但是不得不说,资料少,而且虽然可以进行自定义处理器开发,但是资料也少. 2.下载以后导入nifi,然后直接点击启动就可以实现数据的同步了,可以直接同步一整张表,数据库连接池已经配置好了,笔者自己测试过用了.. 3.可以配置需要同步的表,然后需要同步的目的地的表就可以了.

2023-04-24

文心一言解读-及应用方向解读2023-04-19PDF.zip

⽂⼼⼤模型强调产业级知识增强的特性,旨在降低B端应⽤场景的AI门槛,便于⼆次开发。和⾦融、电⼒、航天等⾏业的⽣态伙伴发布⼀系列⾏业⼤模型,帮助企业迅 速迭代出和业务模式相匹配的模型,截⾄22年底发布了11个⾏业⼤模型。 n2022年,百度世界⼤会和中国探⽉⼯程联合发布百度航天⽂⼼⼤模型,是⾸个航天领域⼤模型,把航天领域的知识图谱和客户积累的数据进⾏智能采集、分析和理 解,助⼒智能感知、深空探测的技术突破。 l⼤模型之上提供⼯具和平台层,以SDK、API接⼝调⽤的⽅式为AI开发者提供⼤模型的套件,⾯向零基础开发者的EasyDL可以做简单的AI开发,把AI中台封装在成型的 BML⼤模型向外做相应的输出。 ⽂⼼⼀⾔在百度2⽉到3⽉的优先级最⾼,⽐如百度阳泉超算中⼼主要为⽂⼼⼀⾔做训练推理。除了A100,还⽤了⼀些国产化的产品,⽐如寒武纪的思元590

2023-04-19

ChatGpt2023年研究框架-2023-04-19.zip

ChatGpt最新专题研究报告 ChatGPT市场反应热烈,国内外巨头纷纷入场 据统计,ChatGPT日活跃用户数的增速远超Instagram,国内外科技巨头都非常重视ChatGPT引发的科技浪潮,积极布局生成式AI,国内厂商(百度、腾讯等)也高度关注ChatGPT,积极探索前沿技术,相关深度应用也即将推出。 ChatGPT经历多类技术路线演化,逐步成熟与完善 ChatGPT所能实现的人类意图,来自于机器学习、神经网络以及Transformer模型的多种技术模型积累。Transformer建模方法成熟以后,使用一套统一的工具来开发各种模态的基础模型这种理念得以成熟,随后GPT-1、GPT-2、GPT-3模型持续演化升级,最终孵化出ChatGPT文本对话应用。 AIGC跨模态产业生态逐步成熟,商用落地未来可期 AIGC产业生态当前在文本、音频、视频等多模态交互功能上持续演化升级,奠定了多场景的商用基础。跨模态生成技术也有望成为真 正实现认知和决策智能的转折点。

2023-04-19

nacos-server-1.1.4 这个下载以后可以直接使用

nacos-server-1.1.4 这个下载以后可以直接使用,找到对一个的bin目录可以直接启动了,如果有对应的mysql,配置中心可以修改conf文件夹中的application.properties文件,配置,对应的配置中心的内容,具体是mysql的地址,用户名密码

2023-03-16

xsync 脚本将文件同步到大数据集群中的所有机器

xsync 脚本将文件同步到大数据集群中的所有机器,使用起来非常方便,自己封装的 使用的时候,记得修改,脚本中的,集群机器名称.

2023-02-23

利用MybatisPlus来实现对表的水平分表,全自动,可以首先判断表是否存在,不存在创建表

利用MybatisPlus来实现对表的水平分表,全自动,可以首先判断表是否存在,不存在创建表,然后设计有定时任务,可以每个月月末的时候,去创建下一个分表程序

2022-08-22

idl编译jar包模板工程.zip

北向接口开发之idl打包成jar包用到工程的模板,直接把里面的java文件替换成自己的java文件, 首先把厂商提供的idl包编译成java文件,然后把编译后的java文件导入到工程里面去,然后保证项目没有错误,然后点击编译,编译成的jar包可以用来,开发北向接口,采集网管数据.

2022-08-04

在非spring注解类中使用spring容器中的bean_普通类中使用yml配置文件中的配置信息

在非spring注解类中使用spring容器中的bean_普通类中使用yml配置文件中的配置信息,在大数据采集项目中用到的,已经测试过了

2022-07-25

Quartz如何实现判断某个任务是否正在运行,在项目中用到的,已经测试过了

Quartz如何实现判断某个任务是否正在运行,在项目中用到的,已经测试过了,很好用,分享给大家

2022-06-28

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除