찾다
운영 및 유지보수ApacheApache Avro 데이터를 구문 분석하는 방법에 대해 이야기해 보겠습니다(예제 설명).

Apache Avro 데이터를 구문 분석하는 방법은 무엇입니까? 이 기사에서는 Avro 데이터를 생성하기 위해 직렬화하고, Avro 데이터를 구문 분석하기 위해 역직렬화하고, FlinkSQL을 사용하여 Avro 데이터를 구문 분석하는 방법을 소개합니다. 도움이 되길 바랍니다.

Apache Avro 데이터를 구문 분석하는 방법에 대해 이야기해 보겠습니다(예제 설명).

인터넷의 급속한 발전으로 클라우드 컴퓨팅, 빅데이터, 인공지능, 사물인터넷 등 첨단기술이 전자상거래 웹사이트 등 오늘날 시대의 주류 첨단기술로 자리 잡았습니다. 집, 스마트시티 등은 사람들의 음식, 의복, 주거, ​​교통을 편리하게 할 뿐만 아니라, 그 이면에는 사람이 수집하고, 정리하고, 분석하는 수많은 데이터가 존재합니다. 낮은 대기 시간과 높은 데이터 품질을 보장하는 다양한 시스템 플랫폼이 특히 중요합니다. Apache Avro 자체는 바이너리 전송을 위해 스키마를 통해 직렬화됩니다. 반면에 데이터 보안을 보장합니다. Avro는 현재 다양한 산업에서 점점 더 많이 사용되고 있으며, Avro 데이터를 처리하고 구문 분석하는 것이 더 중요합니다. 분석을 위해 FlinkSQL을 사용하세요.

이 기사는 avro 구문 분석에 대한 데모입니다. 현재 FlinkSQL은 간단한 avro 데이터 구문 분석에만 적합합니다. 복잡한 중첩 avro 데이터는 당분간 지원되지 않습니다.

장면 소개

이 기사에서는 주로 다음 세 가지 핵심 내용을 소개합니다.

  • Avro 데이터를 직렬화하고 생성하는 방법

  • Avro 데이터를 역직렬화하고 구문 분석하는 방법

  • FlinkSQL을 사용하여 Avro 데이터를 구문 분석하는 방법 전제 조건 AVRO가 무엇인지 이해하기 위해 Avro Avro 공식 웹 사이트 Quick Start Guide를 참조하십시오 project andconfigure pom dependency

pom 파일의 내용은 다음과 같습니다.
    <?xml version="1.0" encoding="UTF-8"?>
    <project xmlns="http://maven.apache.org/POM/4.0.0"
             xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
             xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd">
        <modelVersion>4.0.0</modelVersion>
    
        <groupId>com.huawei.bigdata</groupId>
        <artifactId>avrodemo</artifactId>
        <version>1.0-SNAPSHOT</version>
        <dependencies>
            <dependency>
                <groupId>org.apache.avro</groupId>
                <artifactId>avro</artifactId>
                <version>1.8.1</version>
            </dependency>
            <dependency>
                <groupId>junit</groupId>
                <artifactId>junit</artifactId>
                <version>4.12</version>
            </dependency>
        </dependencies>
    
        <build>
            <plugins>
                <plugin>
                    <groupId>org.apache.avro</groupId>
                    <artifactId>avro-maven-plugin</artifactId>
                    <version>1.8.1</version>
                    <executions>
                        <execution>
                            <phase>generate-sources</phase>
                            <goals>
                                <goal>schema</goal>
                            </goals>
                            <configuration>
                                <sourceDirectory>${project.basedir}/src/main/avro/</sourceDirectory>
                                <outputDirectory>${project.basedir}/src/main/java/</outputDirectory>
                            </configuration>
                        </execution>
                    </executions>
                </plugin>
                <plugin>
                    <groupId>org.apache.maven.plugins</groupId>
                    <artifactId>maven-compiler-plugin</artifactId>
                    <configuration>
                        <source>1.6</source>
                        <target>1.6</target>
                    </configuration>
                </plugin>
            </plugins>
        </build>
    
    </project>
  • 참고: 위 pom 파일은 자동으로 생성된 클래스의 경로, 즉

  • 로 구성됩니다.
p

r

o

Apache Avro 데이터를 구문 분석하는 방법에 대해 이야기해 보겠습니다(예제 설명).j

e

c t mai n /avr o/{project.basedir}/src/main/avro/ 및 p roj ec t.basedi r/s {project.basedir }/src/main/ java/.이 구성 후 mvn 명령을 실행할 때 이 플러그인은 이 디렉터리의 avsc 스키마에서 클래스 파일을 자동으로 생성하고 후자의 디렉터리에 배치합니다. avro 디렉터리가 생성되지 않은 경우 수동으로 생성하세요.

{"namespace": "lancoo.ecbdc.pre",
 "type": "record",
 "name": "User",
 "fields": [
     {"name": "name", "type": "string"},
     {"name": "favorite_number",  "type": ["int", "null"]},
     {"name": "favorite_color", "type": ["string", "null"]}
 ]
}
3 스키마를 컴파일합니다.

点击maven projects项目的compile进行编译,会自动在创建namespace路径和User类代码

Apache Avro 데이터를 구문 분석하는 방법에 대해 이야기해 보겠습니다(예제 설명).

4、序列化

创建TestUser类,用于序列化生成数据

User user1 = new User();
user1.setName("Alyssa");
user1.setFavoriteNumber(256);
// Leave favorite col or null

// Alternate constructor
User user2 = new User("Ben", 7, "red");

// Construct via builder
User user3 = User.newBuilder()
        .setName("Charlie")
        .setFavoriteColor("blue")
        .setFavoriteNumber(null)
        .build();

// Serialize user1, user2 and user3 to disk
DatumWriter<User> userDatumWriter = new SpecificDatumWriter<User>(User.class);
DataFileWriter<User> dataFileWriter = new DataFileWriter<User>(userDatumWriter);
dataFileWriter.create(user1.getSchema(), new File("user_generic.avro"));
dataFileWriter.append(user1);
dataFileWriter.append(user2);
dataFileWriter.append(user3);
dataFileWriter.close();

执行序列化程序后,会在项目的同级目录下生成avro数据

Apache Avro 데이터를 구문 분석하는 방법에 대해 이야기해 보겠습니다(예제 설명).

user_generic.avro内容如下:

Objavro.schema�{"type":"record","name":"User","namespace":"lancoo.ecbdc.pre","fields":[{"name":"name","type":"string"},{"name":"favorite_number","type":["int","null"]},{"name":"favorite_color","type":["string","null"]}]}

至此avro数据已经生成。

5、反序列化

通过反序列化代码解析avro数据

// Deserialize Users from disk
DatumReader<User> userDatumReader = new SpecificDatumReader<User>(User.class);
DataFileReader<User> dataFileReader = new DataFileReader<User>(new File("user_generic.avro"), userDatumReader);
User user = null;
while (dataFileReader.hasNext()) {
    // Reuse user object by passing it to next(). This saves us from
    // allocating and garbage collecting many objects for files with
    // many items.
    user = dataFileReader.next(user);
    System.out.println(user);
}

执行反序列化代码解析user_generic.avro

Apache Avro 데이터를 구문 분석하는 방법에 대해 이야기해 보겠습니다(예제 설명).

avro数据解析成功。

6、将user_generic.avro上传至hdfs路径

hdfs dfs -mkdir -p /tmp/lztest/

hdfs dfs -put user_generic.avro /tmp/lztest/

Apache Avro 데이터를 구문 분석하는 방법에 대해 이야기해 보겠습니다(예제 설명).

7、配置flinkserver

  • 准备avro jar包

将flink-sql-avro-*.jar、flink-sql-avro-confluent-registry-*.jar放入flinkserver lib,将下面的命令在所有flinkserver节点执行

cp /opt/huawei/Bigdata/FusionInsight_Flink_8.1.2/install/FusionInsight-Flink-1.12.2/flink/opt/flink-sql-avro*.jar /opt/huawei/Bigdata/FusionInsight_Flink_8.1.3/install/FusionInsight-Flink-1.12.2/flink/lib

chmod 500 flink-sql-avro*.jar

chown omm:wheel flink-sql-avro*.jar

Apache Avro 데이터를 구문 분석하는 방법에 대해 이야기해 보겠습니다(예제 설명).

  • 同时重启FlinkServer实例,重启完成后查看avro包是否被上传

    hdfs dfs -ls /FusionInsight_FlinkServer/8.1.2-312005/lib

Apache Avro 데이터를 구문 분석하는 방법에 대해 이야기해 보겠습니다(예제 설명).

8、编写FlinkSQL

CREATE TABLE testHdfs(
  name String,
  favorite_number int,
  favorite_color String
) WITH(
  &#39;connector&#39; = &#39;filesystem&#39;,
  &#39;path&#39; = &#39;hdfs:///tmp/lztest/user_generic.avro&#39;,
  &#39;format&#39; = &#39;avro&#39;
);CREATE TABLE KafkaTable (
  name String,
  favorite_number int,
  favorite_color String
) WITH (
  &#39;connector&#39; = &#39;kafka&#39;,
  &#39;topic&#39; = &#39;testavro&#39;,
  &#39;properties.bootstrap.servers&#39; = &#39;96.10.2.1:21005&#39;,
  &#39;properties.group.id&#39; = &#39;testGroup&#39;,
  &#39;scan.startup.mode&#39; = &#39;latest-offset&#39;,
  &#39;format&#39; = &#39;avro&#39;
);
insert into
  KafkaTable
select
  *
from
  testHdfs;

Apache Avro 데이터를 구문 분석하는 방법에 대해 이야기해 보겠습니다(예제 설명).

保存提交任务

9、查看对应topic中是否有数据

Apache Avro 데이터를 구문 분석하는 방법에 대해 이야기해 보겠습니다(예제 설명).

FlinkSQL解析avro数据成功。

【推荐:Apache使用教程

위 내용은 Apache Avro 데이터를 구문 분석하는 방법에 대해 이야기해 보겠습니다(예제 설명).의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

성명
이 기사는 掘金社区에서 복제됩니다. 침해가 있는 경우 admin@php.cn으로 문의하시기 바랍니다. 삭제
Apache Web Server : 핵심 기능이 설명되었습니다Apache Web Server : 핵심 기능이 설명되었습니다Apr 23, 2025 am 12:12 AM

ApacheweBserver의 핵심 기능에는 모듈 식 디자인, 가상 호스트 구성, 보안 설정 및 성능 최적화가 포함됩니다. 1) Modular Design을 사용하면 URL 재 작성 용 Mod_rewrite와 같은 다른 모듈을로드하여 유연한 확장을 가능하게합니다. 2) 가상 호스트 구성을 통해 한 서버에서 여러 웹 사이트를 실행할 수 있습니다. 3) 보안 설정은 SSL/TLS 암호화 및 액세스 제어를 제공합니다. 4) 성능 최적화에는 KeepAlive 활성화, MPM 구성 조정 및 캐시 활성화가 포함됩니다.

Apache의 지속적인 중요성 : 수명의 이유Apache의 지속적인 중요성 : 수명의 이유Apr 22, 2025 am 12:08 AM

Apache의 지속적인 중요성에는 다양성, 유연성, 강력한 커뮤니티 지원, 광범위한 사용 및 기업 수준의 응용 프로그램의 높은 신뢰성, 신흥 기술의 지속적인 혁신이 포함됩니다. 구체적으로, 1) Apache 프로젝트는 웹 서버에서 빅 데이터 처리에 이르기까지 여러 분야를 포함하여 풍부한 솔루션을 제공합니다. 2) ASF (Apache Software Foundation)의 글로벌 커뮤니티는 프로젝트에 대한 지속적인 지원 및 개발 모멘텀을 제공합니다. 3) Apache는 재무 및 통신과 같은 엔터프라이즈 수준의 응용 프로그램에서 높은 안정성과 확장 성을 보여줍니다. 4) Apache는 Apacheflink 및 Apachearrow의 혁신과 같은 클라우드 컴퓨팅 및 빅 데이터와 같은 새로운 기술에서 계속 혁신하고 있습니다.

과대 광고 : Apache의 현재 역할을 평가합니다과대 광고 : Apache의 현재 역할을 평가합니다Apr 21, 2025 am 12:14 AM

아파치는 오늘날의 기술 생태계에서 여전히 중요합니다. 1) 웹 서비스 및 빅 데이터 처리 분야에서 Apachehttpserver, Kafka 및 Hadoop이 여전히 첫 번째 선택입니다. 2) 앞으로, 우리는 경쟁력을 유지하기 위해 클라우드 기본화, 성능 최적화 및 생태계 단순화에주의를 기울여야합니다.

Apache의 영향 : 웹 호스팅 및 컨텐츠 제공Apache의 영향 : 웹 호스팅 및 컨텐츠 제공Apr 20, 2025 am 12:12 AM

Apachehttpserver는 웹 호스트 및 컨텐츠 배포에 큰 영향을 미칩니다. 1) Apache는 1995 년에 시작하여 시장에서 첫 번째 선택이되어 모듈 식 디자인과 유연성을 제공했습니다. 2) 웹 호스팅에서 Apache는 안정성 및 보안에 널리 사용되며 여러 운영 체제를 지원합니다. 3) 컨텐츠 배포 측면에서 CDN 사용을 결합하면 웹 사이트 속도와 신뢰성이 향상됩니다. 4) Apache는 컨텐츠 압축 및 캐시 헤더와 같은 성능 최적화 구성을 통해 웹 사이트 성능을 크게 향상시킵니다.

Apache의 역할 : HTML, CSS, JavaScript 등을 제공합니다Apache의 역할 : HTML, CSS, JavaScript 등을 제공합니다Apr 19, 2025 am 12:09 AM

Apache는 HTML, CSS, JavaScript 및 기타 파일을 제공 할 수 있습니다. 1) 가상 호스트 및 문서 루트 디렉토리를 구성, 2) 요청 수신, 프로세스 및 반환, 3) .htaccess 파일을 사용하여 URL 재 작성을 구현하기 위해, 4) 권한을 확인하여 디버그, 구성을보기 및 구성 테스트, 5) 캐시 활성화, 파일 압축 및 성능을 최적화합니다.

Apache로 알려진 것 : 주요 기능 및 업적Apache로 알려진 것 : 주요 기능 및 업적Apr 18, 2025 am 12:03 AM

Apachehttpserver는 모듈 식 설계, 높은 확장 성, 보안 및 성능 최적화를 위해 웹 서버 분야의 리더가되었습니다. 1. 모듈 식 설계는 다른 모듈을로드하여 다양한 프로토콜과 기능을 지원합니다. 2. 소규모에서 대형 응용 프로그램의 요구에 적응할 수있는 확장 성. 3. Security는 Mod_Security 및 여러 인증 메커니즘을 통해 웹 사이트를 보호합니다. 4. 성능 최적화는 데이터 압축 및 캐싱을 통해 로딩 속도를 향상시킵니다.

아파치의 지속적인 관련성 : 현재 상태를 조사합니다아파치의 지속적인 관련성 : 현재 상태를 조사합니다Apr 17, 2025 am 12:06 AM

Apachehttpserver는 안정성, 확장 성 및 풍부한 생태계 때문에 현대 웹 환경에서 중요합니다. 1) 안정성과 신뢰성은 고 가용성 환경에 적합합니다. 2) 넓은 생태계는 풍부한 모듈과 확장을 제공합니다. 3) 구성 및 관리가 쉽고 초보자에게도 신속하게 시작할 수 있습니다.

Apache의 인기 : 성공의 이유Apache의 인기 : 성공의 이유Apr 16, 2025 am 12:05 AM

Apache의 성공 이유는 다음과 같습니다. 1) 강력한 오픈 소스 커뮤니티 지원, 2) 유연성 및 확장 성, 3) 안정성 및 신뢰성 및 4) 광범위한 응용 시나리오. Apache는 커뮤니티 기술 지원 및 공유를 통해 유연한 모듈 식 설계 및 구성 옵션을 제공하여 다양한 요구에 따라 적응성과 안정성을 보장하며 개인 블로그에서 대기업 웹 사이트에 이르기까지 다양한 시나리오에서 널리 사용됩니다.

See all articles

핫 AI 도구

Undresser.AI Undress

Undresser.AI Undress

사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover

AI Clothes Remover

사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool

Undress AI Tool

무료로 이미지를 벗다

Clothoff.io

Clothoff.io

AI 옷 제거제

Video Face Swap

Video Face Swap

완전히 무료인 AI 얼굴 교환 도구를 사용하여 모든 비디오의 얼굴을 쉽게 바꾸세요!

뜨거운 도구

SublimeText3 중국어 버전

SublimeText3 중국어 버전

중국어 버전, 사용하기 매우 쉽습니다.

안전한 시험 브라우저

안전한 시험 브라우저

안전한 시험 브라우저는 온라인 시험을 안전하게 치르기 위한 보안 브라우저 환경입니다. 이 소프트웨어는 모든 컴퓨터를 안전한 워크스테이션으로 바꿔줍니다. 이는 모든 유틸리티에 대한 액세스를 제어하고 학생들이 승인되지 않은 리소스를 사용하는 것을 방지합니다.

메모장++7.3.1

메모장++7.3.1

사용하기 쉬운 무료 코드 편집기

Eclipse용 SAP NetWeaver 서버 어댑터

Eclipse용 SAP NetWeaver 서버 어댑터

Eclipse를 SAP NetWeaver 애플리케이션 서버와 통합합니다.

SublimeText3 Linux 새 버전

SublimeText3 Linux 새 버전

SublimeText3 Linux 최신 버전