찾다
Javajava지도 시간Spring Boot와 Flume을 기반으로 로그 수집 및 분석 시스템 구축

기업 시스템의 규모가 지속적으로 확장됨에 따라 시스템 로그는 점점 더 커지고 있으며, 안정적인 로그 수집 및 분석 시스템이 없으면 시스템을 효과적으로 모니터링하고 유지 관리하기가 어렵습니다. 이번 글에서는 Spring Boot와 Flume을 기반으로 효율적인 로그 수집 및 분석 시스템을 구축하는 방법을 소개합니다. PREREACESITES 시작하기 전에 다음 소프트웨어를 설치하고 설정해야합니다 이상 버전

    Kibana 7.6.2 이상 버전

Spring Boot 애플리케이션 구성

  • 먼저 Spring Boot 애플리케이션을 생성하고 필요한 종속성을 추가해야 합니다.
  • <dependency>
        <groupId>org.springframework.boot</groupId>
        <artifactId>spring-boot-starter-web</artifactId>
    </dependency>
    
    <dependency>
        <groupId>org.springframework.boot</groupId>
        <artifactId>spring-boot-starter-log4j2</artifactId>
    </dependency>
  • application.properties 파일에 다음을 추가합니다. 다음 구성:
  • # 应用端口号
    server.port=8080
    
    # log4j2配置
    logging.config=classpath:log4j2.xml
    
    # flume配置
    flume.agentName=myflume
    flume.sourceType=avro
    flume.clientType=load-balancing
    flume.hosts=localhost:41414
    
    # elasticsearch配置
    spring.elasticsearch.rest.uris=http://localhost:9200
  • 위 구성에서는 애플리케이션의 포트 번호, log4j2 구성 파일, Flume 관련 구성 및 Elasticsearch 액세스 URI를 지정했습니다.
  • Log Collector
Flume에 애플리케이션 로그를 보내려면 사용자 정의 log4j2 Appender를 만들어야 합니다.
    @Plugin(name = "Flume", category = "Core", elementType = "appender", printObject = true)
    public class FlumeAppender extends AbstractAppender {
    
        private static final ObjectMapper MAPPER = new ObjectMapper();
        private final FlumeClient client;
        private final String sourceType;
    
        protected FlumeAppender(String name, Filter filter, Layout<? extends Serializable> layout,
                                FlumeClient client, String sourceType) {
            super(name, filter, layout, true);
            this.client = client;
            this.sourceType = sourceType;
        }
    
        @PluginFactory
        public static FlumeAppender createAppender(@PluginAttr("name") String name,
                                                   @PluginElement("Filters") Filter filter,
                                                   @PluginElement("Layout") Layout<? extends Serializable> layout,
                                                   @PluginAttr("sourceType") String sourceType,
                                                   @PluginAttr("hosts") String hosts) {
            if (name == null) {
                LOGGER.error("FlumeAppender missing name");
                return null;
            }
            if (client == null) {
                LOGGER.error("FlumeAppender missing client");
                return null;
            }
            return new FlumeAppender(name, filter, layout, createClient(hosts), sourceType);
        }
    
        private static FlumeClient createClient(String hosts) {
            LoadBalancingRpcClient rpcClient = new LoadBalancingRpcClient();
            String[] hostArray = hosts.split(",");
            for (String host : hostArray) {
                String[] hostParts = host.split(":");
                rpcClient.addHost(new InetSocketAddress(hostParts[0], Integer.parseInt(hostParts[1])));
            }
            Properties props = new Properties();
            props.setProperty(RpcClientConfigurationConstants.CONFIG_CLIENT_TYPE, "default_loadbalance");
            props.setProperty(RpcClientConfigurationConstants.CONFIG_HOSTS, hosts);
            props.setProperty(RpcClientConfigurationConstants.CONFIG_MAX_BACKOFF, "10000");
            AvroEventSerializer serializer = new AvroEventSerializer();
            serializer.configure(props, false);
            return new FlumeClient(rpcClient, serializer);
        }
    
        @Override
        public void append(LogEvent event) {
            try {
                byte[] body = ((StringLayout) this.getLayout()).toByteArray(event);
                Map<String, String> headers = new HashMap<>();
                headers.put("timestamp", Long.toString(event.getTimeMillis()));
                headers.put("source", "log4j");
                headers.put("sourceType", sourceType);
                Event flumeEvent = EventBuilder.withBody(body, headers);
                client.sendEvent(flumeEvent);
            } catch (Exception e) {
                LOGGER.error("Failed to send event to Flume", e);
            }
        }
    }
  1. 위 코드에서는 로그 이벤트를 Flume 이벤트로 패키징하여 Flume 서버로 보내는 log4j2 Appender를 구현했습니다.
log4j2 구성 파일을 생성하고 FlumeAppender를 구성합니다.

<?xml version="1.0" encoding="UTF-8"?>
<Configuration>
    <Appenders>
        <Flume name="flume" sourceType="spring-boot" hosts="${flume.hosts}">
            <PatternLayout pattern="%d{yyyy-MM-dd HH:mm:ss.SSS} [%t] %-5level %logger{36} - %msg%n"/>
        </Flume>
    </Appenders>
    <Loggers>
        <Root level="info">
            <AppenderRef ref="flume"/>
        </Root>
    </Loggers>
</Configuration>

이 log4j2 구성 파일에서는 FlumeAppender를 정의하고 이를 루트 로거에서 참조합니다.

Flume 구성

  1. Flume Agent의 애플리케이션에서 보낸 로그 메시지를 받아 Elasticsearch로 보내도록 Flume을 구성해야 합니다.
아래 그림과 같이 Flume 구성 파일을 생성합니다.

# Define the agent name and the agent sources and sinks
myflume.sources = mysource
myflume.sinks = mysink
myflume.channels = channel1

# Define the source
myflume.sources.mysource.type = avro
myflume.sources.mysource.bind = 0.0.0.0
myflume.sources.mysource.port = 41414

# Define the channel
myflume.channels.channel1.type = memory
myflume.channels.channel1.capacity = 10000
myflume.channels.channel1.transactionCapacity = 1000

# Define the sink
myflume.sinks.mysink.type = org.elasticsearch.hadoop.flume.ElasticsearchSink
myflume.sinks.mysink.hostNames = localhost:9200
myflume.sinks.mysink.indexName = ${type}-%{+YYYY.MM.dd}
myflume.sinks.mysink.batchSize = 1000
myflume.sinks.mysink.typeName = ${type}

# Link the source and sink with the channel
myflume.sources.mysource.channels = channel1
myflume.sinks.mysink.channel = channel1

Flume 구성 파일에서는 에이전트, 소스 및 싱크를 정의합니다. 소스는 포트 41414에 바인딩된 avro 유형이고, 채널1은 메모리 유형, 용량은 10000, transactionCapacity는 1000입니다. 싱크는 로컬 호스트의 포트 9200에 type이라는 인덱스를 생성하고 이벤트 1000개에 도달하면 일괄적으로 Elasticsearch에 제출하는 ElasticsearchSink 유형입니다.

Elasticsearch 및 Kibana 구성

마지막으로 Elasticsearch 및 Kibana를 구성해야 합니다. Elasticsearch에서는 Flume 구성 파일에 정의된 인덱스 이름과 일치하는 인덱스를 생성해야 합니다.
  1. Kibana에서는 인덱스 스키마를 생성해야 합니다. Kibana의 메인 메뉴에서 "관리"를 선택한 다음 "Kibana"를 선택하세요. Kibana 인덱스 패턴에서 "인덱스 패턴 생성"을 선택합니다. Flume 구성 파일에 정의된 인덱스 이름을 입력하고 프롬프트에 따라 구성합니다.
애플리케이션의 로그 메시지를 보려면 Kibana용 대시보드도 생성해야 합니다. Kibana의 메인 메뉴에서 "대시보드"를 선택한 다음 "대시보드 만들기"를 선택하세요. "시각화" 탭에서 "시각화 추가"를 선택합니다. 데이터 테이블을 선택하고 필수 필드와 시각화 옵션을 구성합니다.

결론

이 글에서는 Spring Boot와 Flume을 활용하여 효율적인 로그 수집 및 분석 시스템을 구축하는 방법을 소개했습니다. 우리는 애플리케이션의 로그 이벤트를 Flume 서버로 보내기 위해 사용자 정의 log4j2 Appender를 구현했고, 로그 분석 및 시각화를 위해 Elasticsearch와 Kibana를 사용했습니다. 이 글이 여러분만의 로그 수집 및 분석 시스템을 구축하는 데 도움이 되기를 바랍니다.

    위 내용은 Spring Boot와 Flume을 기반으로 로그 수집 및 분석 시스템 구축의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

    성명
    본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.
    고급 Java 프로젝트 관리, 구축 자동화 및 종속성 해상도에 Maven 또는 Gradle을 어떻게 사용합니까?고급 Java 프로젝트 관리, 구축 자동화 및 종속성 해상도에 Maven 또는 Gradle을 어떻게 사용합니까?Mar 17, 2025 pm 05:46 PM

    이 기사에서는 Java 프로젝트 관리, 구축 자동화 및 종속성 해상도에 Maven 및 Gradle을 사용하여 접근 방식과 최적화 전략을 비교합니다.

    적절한 버전 및 종속성 관리로 Custom Java 라이브러리 (JAR Files)를 작성하고 사용하려면 어떻게해야합니까?적절한 버전 및 종속성 관리로 Custom Java 라이브러리 (JAR Files)를 작성하고 사용하려면 어떻게해야합니까?Mar 17, 2025 pm 05:45 PM

    이 기사에서는 Maven 및 Gradle과 같은 도구를 사용하여 적절한 버전 및 종속성 관리로 사용자 정의 Java 라이브러리 (JAR Files)를 작성하고 사용하는 것에 대해 설명합니다.

    카페인 또는 구아바 캐시와 같은 라이브러리를 사용하여 자바 애플리케이션에서 다단계 캐싱을 구현하려면 어떻게해야합니까?카페인 또는 구아바 캐시와 같은 라이브러리를 사용하여 자바 애플리케이션에서 다단계 캐싱을 구현하려면 어떻게해야합니까?Mar 17, 2025 pm 05:44 PM

    이 기사는 카페인 및 구아바 캐시를 사용하여 자바에서 다단계 캐싱을 구현하여 응용 프로그램 성능을 향상시키는 것에 대해 설명합니다. 구성 및 퇴거 정책 관리 Best Pra와 함께 설정, 통합 및 성능 이점을 다룹니다.

    캐싱 및 게으른 하중과 같은 고급 기능을 사용하여 객체 관계 매핑에 JPA (Java Persistence API)를 어떻게 사용하려면 어떻게해야합니까?캐싱 및 게으른 하중과 같은 고급 기능을 사용하여 객체 관계 매핑에 JPA (Java Persistence API)를 어떻게 사용하려면 어떻게해야합니까?Mar 17, 2025 pm 05:43 PM

    이 기사는 캐싱 및 게으른 하중과 같은 고급 기능을 사용하여 객체 관계 매핑에 JPA를 사용하는 것에 대해 설명합니다. 잠재적 인 함정을 강조하면서 성능을 최적화하기위한 설정, 엔티티 매핑 및 모범 사례를 다룹니다. [159 문자]

    Java의 클래스로드 메커니즘은 다른 클래스 로더 및 대표 모델을 포함하여 어떻게 작동합니까?Java의 클래스로드 메커니즘은 다른 클래스 로더 및 대표 모델을 포함하여 어떻게 작동합니까?Mar 17, 2025 pm 05:35 PM

    Java의 클래스 로딩에는 부트 스트랩, 확장 및 응용 프로그램 클래스 로더가있는 계층 적 시스템을 사용하여 클래스로드, 링크 및 초기화 클래스가 포함됩니다. 학부모 위임 모델은 핵심 클래스가 먼저로드되어 사용자 정의 클래스 LOA에 영향을 미치도록합니다.

    See all articles

    핫 AI 도구

    Undresser.AI Undress

    Undresser.AI Undress

    사실적인 누드 사진을 만들기 위한 AI 기반 앱

    AI Clothes Remover

    AI Clothes Remover

    사진에서 옷을 제거하는 온라인 AI 도구입니다.

    Undress AI Tool

    Undress AI Tool

    무료로 이미지를 벗다

    Clothoff.io

    Clothoff.io

    AI 옷 제거제

    AI Hentai Generator

    AI Hentai Generator

    AI Hentai를 무료로 생성하십시오.

    인기 기사

    R.E.P.O. 에너지 결정과 그들이하는 일 (노란색 크리스탈)
    4 몇 주 전By尊渡假赌尊渡假赌尊渡假赌
    R.E.P.O. 최고의 그래픽 설정
    4 몇 주 전By尊渡假赌尊渡假赌尊渡假赌
    R.E.P.O. 아무도들을 수없는 경우 오디오를 수정하는 방법
    4 몇 주 전By尊渡假赌尊渡假赌尊渡假赌
    R.E.P.O. 채팅 명령 및 사용 방법
    4 몇 주 전By尊渡假赌尊渡假赌尊渡假赌

    뜨거운 도구

    mPDF

    mPDF

    mPDF는 UTF-8로 인코딩된 HTML에서 PDF 파일을 생성할 수 있는 PHP 라이브러리입니다. 원저자인 Ian Back은 자신의 웹 사이트에서 "즉시" PDF 파일을 출력하고 다양한 언어를 처리하기 위해 mPDF를 작성했습니다. HTML2FPDF와 같은 원본 스크립트보다 유니코드 글꼴을 사용할 때 속도가 느리고 더 큰 파일을 생성하지만 CSS 스타일 등을 지원하고 많은 개선 사항이 있습니다. RTL(아랍어, 히브리어), CJK(중국어, 일본어, 한국어)를 포함한 거의 모든 언어를 지원합니다. 중첩된 블록 수준 요소(예: P, DIV)를 지원합니다.

    Eclipse용 SAP NetWeaver 서버 어댑터

    Eclipse용 SAP NetWeaver 서버 어댑터

    Eclipse를 SAP NetWeaver 애플리케이션 서버와 통합합니다.

    WebStorm Mac 버전

    WebStorm Mac 버전

    유용한 JavaScript 개발 도구

    MinGW - Windows용 미니멀리스트 GNU

    MinGW - Windows용 미니멀리스트 GNU

    이 프로젝트는 osdn.net/projects/mingw로 마이그레이션되는 중입니다. 계속해서 그곳에서 우리를 팔로우할 수 있습니다. MinGW: GCC(GNU Compiler Collection)의 기본 Windows 포트로, 기본 Windows 애플리케이션을 구축하기 위한 무료 배포 가능 가져오기 라이브러리 및 헤더 파일로 C99 기능을 지원하는 MSVC 런타임에 대한 확장이 포함되어 있습니다. 모든 MinGW 소프트웨어는 64비트 Windows 플랫폼에서 실행될 수 있습니다.

    VSCode Windows 64비트 다운로드

    VSCode Windows 64비트 다운로드

    Microsoft에서 출시한 강력한 무료 IDE 편집기