-
云原生在京东丨云原生时代下的监控:如何基于云原生进行指标采集?
从 Kubernetes 成为容器管理领域的事实标准开始,基于云原生也就是基于 Kubernetes 原生。在云的体系下,基础硬件基本上都被抽象化、模糊化,硬故障需要人为干预的频次在逐渐降低,健康检查、失败自愈、负载均衡等功能的提供,也使得简单的、毁灭性的...
-
爬虫实战1——获取某主页的所有跳转链接
文章目录 为什么用python写 任务需求 以爬某不知名网站为例:准备工作 开始写爬虫 后续 ip池 end 为什么用python写 开发效率高,代码简洁,一行代码就可完成请求,100行可以完成一个复杂的爬虫任务; 爬虫对于代码...
-
技本功丨骚操作:教你如何用一支烟的时间来写个日志采集工具
作者:良辰 袋鼠云日志团队 后端开发工程师 我放下了手中的键盘,陷入沉思, 作为一个优秀的程序猿最重要的就是 气~势~ 泰山崩于前的镇~定~ 我用最快的速度扫描了一遍现行的 filebeat、fluentd、flume、 sc...
-
20.网络爬虫—Scrapy-Redis分布式爬虫
网络爬虫—Scrapy-redis详讲 Redis的安装与使用 分布式概念和作用 分布式爬虫 分布式爬虫特点 redis的使用 Redis 操作/启动 Redis Desktop Manager下载 特点和架构 安装和使用 Scrapy-re...
-
LC3视角:Kubernetes下日志采集、存储与处理技术实践
摘要: 在Kubernetes服务化、日志处理实时化以及日志集中式存储趋势下,Kubernetes日志处理上也遇到的新挑战,包括:容器动态采集、大流量性能瓶颈、日志路由管理等问题。本文介绍了“Logtail + 日志服务 + 生态”架构,介绍了:Logta...
-
数据采集框架 kafka
一、简介 (1)定义:Kafka是一种高吞吐量的分布式发布订阅消息系统,被设计成能高效处理大量实时数据,其特点是快速的、可拓展的、分布式的、分区的和可复制的 (2)消息系统作用: 削峰 :用于承接超出业务系统处理能力的请求,使业务平稳运行。这能够大...
-
大数据采集方法
大数据采集 是指从传感器和智能设备、企业在线系统、企业离线系统、社交网络和互联网平台等获取数据的过程。 数据 数据包括RFID数据、传感器数据、用户行为数据、社交网络交互数据及移动互联网数据等各种类型的结构化、半结构化及非结构化的海量数据。 大数据的分...
-
大数据采集有哪些方法?
随着信息时代的到来,大多数数据抓取工作主要是通过网络来采集,毕竟数据数据的产生和流动几乎在我们生活中每时每刻都在产生。除了网络数据的采集还有现在的数据调研和抽查的方式,这里我们主要讲讲网络数据的采集。 针对4种不同的数据源,大数据采集方法有以下几大类。...
-
数据采集组件:Flume基础用法和Kafka集成
一、Flume简介 1、基础描述 Flume是Cloudera提供的一个高可用的,高可靠的,分布式的海量日志采集、聚合和传输的系统,Flume支持在日志系统中定制各类数据发送方,用于收集数据; 特点:分布式、高可用、基于流式架构,通常用来收集、聚合、...
-
大模型: 模型大了难在哪里?
大家好,我是Tim。 自从GPT模型诞生以来,其参数规模就在不停的扩大。但模型并非简单的直接变大,需要在数据、调度、并行计算、算法和机器资源上做相应的改变。 今天就来总结下,什么是大模型,模型变大的难在哪里以及对于CV/NLP或者搜推广场景上有什么应对策...