最新实例
ELK Stack中文指南:解析机器数据分析利器
ELK Stack近年来在机器数据分析和实时日志处理领域异军突起,成为开源解决方案中的佼佼者。
Apache ZooKeeper 3.6.4
Apache ZooKeeper 是一款开源的分布式应用程序协调服务,源于 Google Chubby 项目,是 Hadoop 和 HBase 等分布式系统的关键组件。 ZooKeeper 为分布式应用提供一致性服务,功能涵盖: 配置维护 域名服务 分布式同步 组服务 ZooKeeper 的设计目标是简化复杂且易出错的关键服务,为用户提供易于使用、性能高效且稳定的系统。它提供了一组简单的原语,并支持 Java 和 C 接口。
Kafka-Manager 1.3.3.17 编译包
提供已编译的 Kafka-Manager 包,版本号为 1.3.3.17,文件格式为 zip。
kafka-manager-2.4.0.tar.gz 获取方式
滴滴发布的新版 kafka-manager,获取途径如下:百度网盘链接: https://pan.baidu.com/s/1IxJFsWs9_vAQ-sbWzig0tw 提取码: 1234
RK3288存储策略解析
Kafka 无论消息是否被消费,都会保留所有消息。两种策略可删除旧数据: 基于时间:log.retention.hours=168 (保留 168 小时) 基于大小:log.retention.bytes=1073741824 (保留 1GB) Kafka 读取特定消息的时间复杂度为 O(1),与文件大小无关,因此删除过期文件与 Kafka 性能无关。 Topic 创建与删除 Topic 创建的序列图请参考 RK3288 Technical Reference Manual 图 5。
IKAnalyzer2012FF_u1 使用指南
IKAnalyzer2012FF_u1 快速上手 导入jar包: 将 IKAnalyzer2012FF_u1 的 jar 包添加到您的项目中。 配置词典: 将配置文件、扩展词典和停用词典放置到项目的 src 文件夹下。 完成以上两步后,即可开始使用 IKAnalyzer2012FF_u1 进行中文分词。
logstash 6.7.0 RPM 包
Logstash 6.7.0 版本以 RPM 包格式发布,适用于基于 Red Hat 和 CentOS 的系统。
Redhat Linux 下 Kafka 集群搭建
Redhat Linux 下 Kafka 集群搭建 在 Redhat Linux 系统上搭建 Kafka 集群,需要进行一系列步骤,包括安装 Java 环境、下载 Kafka 软件包、配置 Zookeeper 和 Kafka Broker 等。 主要步骤: 安装 Java 环境: Kafka 运行依赖 Java 环境,需事先安装并配置好 Java 环境变量。 下载 Kafka 软件包: 从 Kafka 官网下载 Kafka 软件包,并解压到指定目录。 配置 Zookeeper 集群: Kafka 使用 Zookeeper 来管理集群元数据,需搭建 Zookeeper 集群并完成相关配置。 配置 Kafka Broker: 配置 Kafka Broker,包括 Broker ID、监听端口、数据存储目录等信息。 启动 Kafka 集群: 启动 Zookeeper 集群和 Kafka Broker,完成集群搭建。 注意事项: 确保服务器网络互通,防火墙开放必要端口。 根据实际需求调整 Kafka 配置参数。 建议使用 Supervisor 等工具管理 Kafka 进程。
elasticsearch6.2.3、IK分词器6.2.3与head6.2.33安装包
提供elasticsearch6.2.3版本, IK分词器6.2.3版本和elasticsearch-head 6.2.33版本的安装包, 三者相互兼容, 可直接用于开发。
Flume + Kafka + HDFS 日志数据采集方案
Flume采集数据到Kafka 配置Flume Source: 从数据源(如文件系统、网络端口)采集数据。 配置Flume Channel: 选择内存或文件通道缓存数据。 配置Flume Sink: 将数据发送至Kafka,需指定Kafka Broker地址、Topic等信息。 Kafka接收数据 创建Kafka Topic: 为Flume准备接收数据的主题。 启动Kafka Broker: 确保Kafka服务正常运行。 从Kafka读取数据存储到HDFS 配置Kafka Consumer: 创建Kafka消费者,读取指定Topic的数据。 配置HDFS Sink: 将读取的数据写入HDFS,需指定HDFS路径等信息。 运行数据写入程序: 启动程序,将Kafka数据持续写入HDFS。 总结 此方案实现了日志数据从源头采集,经过Kafka缓冲,最终存储到HDFS的完整流程,具有高吞吐量、可扩展性等优点。