찾다
기술 주변기기일체 포함SOTA를 3.27% 앞지르며 Shanghai Jiao Tong University 등은 적응형 로컬 집계의 새로운 방법을 제안했습니다.

이 기사는 AAAI 2023에 포함된 논문을 소개합니다. 이 논문은 Shanghai Jiao Tong University, Queen's University Belfast 및 Louisiana State University의 Shanghai Key Laboratory of Scalable Computing and Systems 소속 Hua Yang 교수와 Wang Hao 교사가 공동 집필했습니다. 함께요.

SOTA를 3.27% 앞지르며 Shanghai Jiao Tong University 등은 적응형 로컬 집계의 새로운 방법을 제안했습니다.

  • 문서 링크: https://arxiv.org/abs/2212.01197​
  • 코드 링크(ALA 모듈 사용 지침 포함): https://github .com/ TsingZ0/FedALA​

본 논문에서는 통계적 이질성 문제에서 클라이언트가 요구하는 정보를 자동으로 캡처하여 연합 학습의 문제를 해결하기 위한 적응형 로컬 집계 방법을 제안합니다. 저자는 11개의 SOTA 모델을 비교한 결과 최적 방법을 뛰어넘는 3.27%의 우수한 성능을 달성했다. 저자는 적응형 로컬 집계 모듈을 다른 연합 학습 방법에 적용하여 최대 24.19%의 향상을 달성했습니다.

1 소개

연합 학습(FL)은 사용자 개인 데이터를 전파하지 않고 로컬에 보관하여 개인 정보를 보호하면서 사람들이 사용자 데이터에 포함된 가치를 완전히 탐색하도록 돕습니다. 그러나 클라이언트 간의 데이터가 눈에 보이지 않기 때문에 데이터의 통계적 이질성(비독립적이고 동일하게 분산된 데이터(non-IID) 및 데이터 볼륨 불균형)은 FL의 큰 과제 중 하나가 되었습니다. 데이터의 통계적 이질성으로 인해 전통적인 연합 학습 방법(예: FedAvg 등)에서는 FL 프로세스 교육을 통해 각 클라이언트에 적합한 단일 글로벌 모델을 얻기가 어렵습니다.

최근에는 데이터의 통계적 이질성에 대처할 수 있는 능력으로 인해 개인화 연합 학습(pFL) 방법이 점점 더 주목을 받고 있습니다. 고품질의 글로벌 모델을 추구하는 기존 FL과 달리 pFL 접근 방식은 연합 학습의 협업 컴퓨팅 능력을 통해 각 클라이언트에 적합한 맞춤형 모델을 학습하는 것을 목표로 합니다. 서버의 집계 모델에 대한 기존 pFL 연구는 다음 세 가지 범주로 나눌 수 있습니다. 2 ) pFedMe 및 Ditto를 포함한 추가 개인화 모델 학습 방법

(3) FedAMP, FedPHP, FedFomo, APPLE 및 PartialFed를 포함한 개인화 집계(또는 로컬 집계)를 통해 로컬 모델을 학습하는 방법.

범주 (1)과 (2)의 pFL 방법은 로컬 초기화를 위해 전역 모델의 모든 정보를 사용합니다(각 반복에서 로컬 훈련 전에 로컬 모델을 초기화하는 것을 의미). 그러나 글로벌 모델에서는 로컬 모델의 품질을 향상시키는 정보(로컬 훈련 목표를 충족하기 위해 클라이언트가 요구하는 정보)만이 클라이언트에게 유익합니다. 글로벌 모델에는 단일 클라이언트에 필요한 정보와 필요하지 않은 정보가 모두 포함되어 있기 때문에 일반화가 잘 되지 않습니다. 따라서 연구자들은 개인화된 집계를 통해 글로벌 모델에서 각 클라이언트가 요구하는 정보를 캡처하기 위해 범주 (3)의 pFL 방법을 제안합니다. 그러나 범주 (3)의 pFL 방법은 (a) 고객의 로컬 교육 목표(FedAMP 및 FedPHP 등)를 고려하지 않고 여전히 존재하며, (b) 계산 및 통신 비용이 높으며(FedFomo 및 APPLE), (c) 개인 정보 유출(예: FedFomo 및 APPLE) 및 (d) 개인화된 집계와 로컬 교육 대상(예: PartialFed) 간의 불일치와 같은 문제. 또한 이러한 방법은 FL 프로세스에 상당한 수정을 가하기 때문에 이들이 사용하는 개인화된 집계 방법은 대부분의 기존 FL 방법에서 직접 사용할 수 없습니다.

FedAvg에 비해 각 반복에서 통신 비용을 늘리지 않고 글로벌 모델에서 클라이언트가 요구하는 정보를 정확하게 캡처하기 위해 저자는 연합 학습을 위한 적응형 로컬 집계 방법(FedALA)을 제안합니다. 그림 1에서 볼 수 있듯이 FedALA는 각 로컬 훈련 전에 ALA(Adaptive Local Aggregation) 모듈을 통해 글로벌 모델과 로컬 모델을 집계하여 글로벌 모델에 필요한 정보를 캡처합니다. FedALA는 다른 FL 프로세스를 변경하지 않고 FedAvg와 비교하여 각 반복에서 로컬 모델 초기화 프로세스를 수정하기 위해 ALA만 사용하므로 ALA를 대부분의 기존 FL 방법에 직접 적용하여 성능을 향상시킬 수 있습니다.

그림 1: 반복 중인 클라이언트의 로컬 학습 프로세스

2 방법

2.1 적응형 로컬 집계(ALA)

SOTA를 3.27% 앞지르며 Shanghai Jiao Tong University 등은 적응형 로컬 집계의 새로운 방법을 제안했습니다.

그림 2: 적응형 로컬 집계 (알라) 프로세스

ALA(적응형 로컬 집계) 프로세스는 그림 2에 나와 있습니다. 로컬 초기화 모델 (예: )을 얻기 위해 다운로드한 글로벌 모델 으로 로컬 모델 을 직접 덮어쓰는 기존 연합 학습과 비교하여 FedALA는 각 매개변수에 대한 로컬 모델을 학습합니다. 적응형 로컬 집계를 위한 집계 가중치입니다.

SOTA를 3.27% 앞지르며 Shanghai Jiao Tong University 등은 적응형 로컬 집계의 새로운 방법을 제안했습니다.


그 중 저자는 SOTA를 3.27% 앞지르며 Shanghai Jiao Tong University 등은 적응형 로컬 집계의 새로운 방법을 제안했습니다.을 "업데이트"라고 부릅니다. 또한 저자는 요소별 가중치 가지치기 방법SOTA를 3.27% 앞지르며 Shanghai Jiao Tong University 등은 적응형 로컬 집계의 새로운 방법을 제안했습니다.을 통해 정규화를 구현하고 SOTA를 3.27% 앞지르며 Shanghai Jiao Tong University 등은 적응형 로컬 집계의 새로운 방법을 제안했습니다.의 값을 [0,1]로 제한합니다.

심층신경망(DNN)의 하위 레이어 네트워크는 상위 레이어에 비해 상대적으로 더 일반적인 정보를 학습하는 경향이 있고, 일반 정보는 각 로컬 모델에서 요구하는 정보이기 때문에 하위 레이어 네트워크는 글로벌 모델 대부분의 정보는 로컬 모델의 하위 수준 네트워크에 필요한 정보와 일치합니다. 로컬 집계 가중치를 학습하는 데 필요한 계산 비용을 줄이기 위해 저자는 ALA의 범위를 제어하는 ​​하이퍼파라미터 p를 도입하여 글로벌 모델의 하위 레이어 네트워크 매개변수가 로컬 모델의 하위 레이어 네트워크를 직접 덮고, 상위 계층에서만 ALA를 활성화합니다.

SOTA를 3.27% 앞지르며 Shanghai Jiao Tong University 등은 적응형 로컬 집계의 새로운 방법을 제안했습니다.

그 중 SOTA를 3.27% 앞지르며 Shanghai Jiao Tong University 등은 적응형 로컬 집계의 새로운 방법을 제안했습니다.SOTA를 3.27% 앞지르며 Shanghai Jiao Tong University 등은 적응형 로컬 집계의 새로운 방법을 제안했습니다.의 신경망 레이어 수(또는 신경망 블록 수)를 나타내며, SOTA를 3.27% 앞지르며 Shanghai Jiao Tong University 등은 적응형 로컬 집계의 새로운 방법을 제안했습니다.SOTA를 3.27% 앞지르며 Shanghai Jiao Tong University 등은 적응형 로컬 집계의 새로운 방법을 제안했습니다.의 하위 수준 네트워크 모양과 일치합니다. , 및 SOTA를 3.27% 앞지르며 Shanghai Jiao Tong University 등은 적응형 로컬 집계의 새로운 방법을 제안했습니다.SOTA를 3.27% 앞지르며 Shanghai Jiao Tong University 등은 적응형 로컬 집계의 새로운 방법을 제안했습니다.과 일치합니다. 나머지 p-계층 상위 수준 네트워크는 동일한 모양을 갖습니다.

작성자는 SOTA를 3.27% 앞지르며 Shanghai Jiao Tong University 등은 적응형 로컬 집계의 새로운 방법을 제안했습니다.의 모든 값을 1로 초기화하고, 각 로컬 초기화 라운드 동안 이전 SOTA를 3.27% 앞지르며 Shanghai Jiao Tong University 등은 적응형 로컬 집계의 새로운 방법을 제안했습니다.을 기반으로 SOTA를 3.27% 앞지르며 Shanghai Jiao Tong University 등은 적응형 로컬 집계의 새로운 방법을 제안했습니다.를 업데이트합니다. 계산 비용을 더욱 줄이기 위해 저자는 무작위 샘플링 s

SOTA를 3.27% 앞지르며 Shanghai Jiao Tong University 등은 적응형 로컬 집계의 새로운 방법을 제안했습니다.

을 사용합니다. 여기서 SOTA를 3.27% 앞지르며 Shanghai Jiao Tong University 등은 적응형 로컬 집계의 새로운 방법을 제안했습니다.는 업데이트 SOTA를 3.27% 앞지르며 Shanghai Jiao Tong University 등은 적응형 로컬 집계의 새로운 방법을 제안했습니다.의 학습 속도입니다. 학습 SOTA를 3.27% 앞지르며 Shanghai Jiao Tong University 등은 적응형 로컬 집계의 새로운 방법을 제안했습니다. 과정에서 저자는 SOTA를 3.27% 앞지르며 Shanghai Jiao Tong University 등은 적응형 로컬 집계의 새로운 방법을 제안했습니다.을 제외한 다른 훈련 가능한 매개변수를 동결합니다.

SOTA를 3.27% 앞지르며 Shanghai Jiao Tong University 등은 적응형 로컬 집계의 새로운 방법을 제안했습니다.

그림 3: MNIST 및 Cifar10 데이터 세트에 대한 클라이언트 8의 학습 곡선

더 작은 p 값을 선택하면 FedALA 성능이 FedALA 성능에 거의 영향을 주지 않고 크게 향상됩니다. ALA 훈련에 필요한 매개변수입니다. 또한 그림 3에서 볼 수 있듯이 저자는 첫 번째 훈련SOTA를 3.27% 앞지르며 Shanghai Jiao Tong University 등은 적응형 로컬 집계의 새로운 방법을 제안했습니다.에서 수렴하도록 훈련한 후에는 후속 반복에서 훈련SOTA를 3.27% 앞지르며 Shanghai Jiao Tong University 등은 적응형 로컬 집계의 새로운 방법을 제안했습니다.하더라도 로컬 모델 품질에 큰 영향을 미치지 않는다는 것을 관찰했습니다. 즉, 각 클라이언트는 이전 SOTA를 3.27% 앞지르며 Shanghai Jiao Tong University 등은 적응형 로컬 집계의 새로운 방법을 제안했습니다.을 재사용하여 필요한 정보를 캡처할 수 있습니다. 저자는 계산 비용을 줄이기 위해 후속 반복에서 미세 조정 SOTA를 3.27% 앞지르며 Shanghai Jiao Tong University 등은 적응형 로컬 집계의 새로운 방법을 제안했습니다. 방법을 채택했습니다.

2.2 ALA 분석

분석에 영향을 주지 않고 단순화를 위해 저자는 SOTA를 3.27% 앞지르며 Shanghai Jiao Tong University 등은 적응형 로컬 집계의 새로운 방법을 제안했습니다.을 무시하고 SOTA를 3.27% 앞지르며 Shanghai Jiao Tong University 등은 적응형 로컬 집계의 새로운 방법을 제안했습니다.을 가정합니다. 위 공식에 따르면 SOTA를 3.27% 앞지르며 Shanghai Jiao Tong University 등은 적응형 로컬 집계의 새로운 방법을 제안했습니다.을 얻을 수 있습니다. 여기서 SOTA를 3.27% 앞지르며 Shanghai Jiao Tong University 등은 적응형 로컬 집계의 새로운 방법을 제안했습니다.SOTA를 3.27% 앞지르며 Shanghai Jiao Tong University 등은 적응형 로컬 집계의 새로운 방법을 제안했습니다.을 나타냅니다. 작성자는 ALA의 업데이트 SOTA를 3.27% 앞지르며 Shanghai Jiao Tong University 등은 적응형 로컬 집계의 새로운 방법을 제안했습니다.를 업데이트 SOTA를 3.27% 앞지르며 Shanghai Jiao Tong University 등은 적응형 로컬 집계의 새로운 방법을 제안했습니다.로 생각할 수 있습니다.

SOTA를 3.27% 앞지르며 Shanghai Jiao Tong University 등은 적응형 로컬 집계의 새로운 방법을 제안했습니다.

그라디언트 용어SOTA를 3.27% 앞지르며 Shanghai Jiao Tong University 등은 적응형 로컬 집계의 새로운 방법을 제안했습니다.는 각 라운드의 요소별로 크기가 조정됩니다. 위의 SOTA를 3.27% 앞지르며 Shanghai Jiao Tong University 등은 적응형 로컬 집계의 새로운 방법을 제안했습니다. 업데이트 프로세스는 로컬 모델 학습(또는 미세 조정) 방법과 달리 전역 모델의 공통 정보를 인식할 수 있습니다. 다양한 반복 라운드 사이에 동적으로 변화하는 SOTA를 3.27% 앞지르며 Shanghai Jiao Tong University 등은 적응형 로컬 집계의 새로운 방법을 제안했습니다.은 ALA 모듈에 동적 정보를 도입하여 FedALA가 복잡한 환경에 쉽게 적응할 수 있도록 합니다.

3 실험

저자는 표 1과 같이 실제 데이터 이기종 환경에서 Tiny-ImageNet 데이터 세트에 대한 FedALA의 하이퍼 매개변수 s와 p가 미치는 영향을 연구하기 위해 ResNet-18을 사용했습니다. s의 경우 ALA 모듈 학습을 위해 무작위로 샘플링된 로컬 훈련 데이터를 사용하면 개인화된 모델의 성능이 향상될 수 있지만 계산 비용도 증가합니다. ALA를 사용하는 경우 각 클라이언트의 컴퓨팅 성능에 따라 s의 크기를 조정할 수 있습니다. 표에서 볼 수 있듯이 FedALA는 매우 작은 s(예: s=5)를 사용해도 여전히 뛰어난 성능을 발휘합니다. p의 경우, 서로 다른 p 값은 개인화 모델의 성능에 거의 영향을 미치지 않지만 계산 비용에는 큰 차이가 있습니다. 이 현상은 또한 모델을 분할하고 클라이언트에 업로드하지 않고 출력에 가까운 신경망 계층을 유지하는 FedRep과 같은 방법의 효율성을 한 측면에서 보여줍니다. ALA를 사용할 때 더 작고 적절한 p 값을 사용하면 개인화된 모델의 성능을 보장하면서 계산 비용을 더욱 줄일 수 있습니다.

SOTA를 3.27% 앞지르며 Shanghai Jiao Tong University 등은 적응형 로컬 집계의 새로운 방법을 제안했습니다.

표 1: 하이퍼파라미터에 대한 연구와 이것이 FedALA에 미치는 영향

저자는 병리학적 데이터 이기종 환경과 실제 데이터 이기종 환경에서 FedALA를 11과 비교했으며 여러 SOTA 방법을 자세히 비교 분석했습니다. 표 2에 표시된 대로 데이터는 FedALA가 모든 경우에 이러한 11가지 SOTA 방법보다 성능이 우수하다는 것을 보여줍니다. 여기서 "TINY"는 Tiny-ImageNet에서 4계층 CNN을 사용하는 것을 의미합니다. 예를 들어, FedALA는 TINY 사례에서 최적 기준을 3.27% 능가합니다.

SOTA를 3.27% 앞지르며 Shanghai Jiao Tong University 등은 적응형 로컬 집계의 새로운 방법을 제안했습니다.

표 2: 병리학적 및 실제 데이터 이기종 환경에서의 실험 결과

또한 저자는 다양한 이기종 환경 및 총 클라이언트 수에서 FedALA의 성능도 평가했습니다. 표 3에서 볼 수 있듯이 FedALA는 이러한 조건에서도 여전히 우수한 성능을 유지합니다.

SOTA를 3.27% 앞지르며 Shanghai Jiao Tong University 등은 적응형 로컬 집계의 새로운 방법을 제안했습니다.

표 3: 기타 실험 결과

표 3의 실험 결과에 따르면 ALA 모듈을 다른 방법에 적용하면 최대 24.19%의 성능 향상을 얻을 수 있습니다.

마지막으로 저자는 그림 4와 같이 MNIST의 원래 FL 프로세스에서 모델 훈련에 ALA 모듈 추가가 미치는 영향을 시각화했습니다. ALA가 활성화되지 않은 경우 모델 훈련 궤적은 FedAvg를 사용하는 것과 일치합니다. ALA가 활성화되면 모델은 글로벌 모델에서 캡처된 교육에 필요한 정보를 사용하여 최적의 목표를 향해 직접 최적화할 수 있습니다.

SOTA를 3.27% 앞지르며 Shanghai Jiao Tong University 등은 적응형 로컬 집계의 새로운 방법을 제안했습니다.

그림 4: 클라이언트 4의 모델 훈련 궤적 시각화

위 내용은 SOTA를 3.27% 앞지르며 Shanghai Jiao Tong University 등은 적응형 로컬 집계의 새로운 방법을 제안했습니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

성명
이 기사는 51CTO.COM에서 복제됩니다. 침해가 있는 경우 admin@php.cn으로 문의하시기 바랍니다. 삭제
Let 's Dance : 인간 신경 그물을 미세 조정하기위한 구조화 된 움직임Let 's Dance : 인간 신경 그물을 미세 조정하기위한 구조화 된 움직임Apr 27, 2025 am 11:09 AM

과학자들은 C. el 그러나 중요한 질문이 발생합니다. 새로운 AI S와 함께 효과적으로 작동하도록 우리 자신의 신경망을 어떻게 조정합니까?

새로운 Google 유출은 Gemini AI의 구독 변경을 보여줍니다새로운 Google 유출은 Gemini AI의 구독 변경을 보여줍니다Apr 27, 2025 am 11:08 AM

Google의 Gemini Advanced : 수평선의 새로운 가입 계층 현재 Gemini Advanced에 액세스하려면 $ 19.99/월 Google One AI Premium Plan이 필요합니다. 그러나 Android Authority 보고서는 다가오는 변경 사항을 암시합니다. 최신 Google p. 내 코드

데이터 분석 가속이 AI의 숨겨진 병목 현상을 해결하는 방법데이터 분석 가속이 AI의 숨겨진 병목 현상을 해결하는 방법Apr 27, 2025 am 11:07 AM

고급 AI 기능을 둘러싼 과대 광고에도 불구하고 Enterprise AI 배포 내에서 상당한 도전 과제 : 데이터 처리 병목 현상. CEO는 AI 발전을 축하하는 동안 엔지니어는 느린 쿼리 시간, 과부하 파이프 라인,

Markitdown MCP는 모든 문서를 Markdowns로 변환 할 수 있습니다!Markitdown MCP는 모든 문서를 Markdowns로 변환 할 수 있습니다!Apr 27, 2025 am 09:47 AM

문서 처리는 더 이상 AI 프로젝트에서 파일을 여는 것이 아니라 혼돈을 명확하게 전환하는 것입니다. PDF, PowerPoint 및 Word와 같은 문서는 모든 모양과 크기로 워크 플로우를 범람합니다. 구조화 된 검색

빌딩 에이전트에 Google ADK를 사용하는 방법은 무엇입니까? - 분석 Vidhya빌딩 에이전트에 Google ADK를 사용하는 방법은 무엇입니까? - 분석 VidhyaApr 27, 2025 am 09:42 AM

Google의 에이전트 개발 키트 (ADK)의 전력을 활용하여 실제 기능을 갖춘 지능형 에이전트를 만듭니다! 이 튜토리얼은 Gemini 및 GPT와 같은 다양한 언어 모델을 지원하는 ADK를 사용하여 대화 에이전트를 구축하는 것을 안내합니다. w

효과적인 문제 해결을 위해 LLM을 통해 SLM 사용 - 분석 Vidhya효과적인 문제 해결을 위해 LLM을 통해 SLM 사용 - 분석 VidhyaApr 27, 2025 am 09:27 AM

요약: SLM (Small Language Model)은 효율성을 위해 설계되었습니다. 자원 결핍, 실시간 및 개인 정보 보호 환경에서 LLM (Large Language Model)보다 낫습니다. 초점 기반 작업, 특히 도메인 특이성, 제어 성 및 해석 성이 일반적인 지식이나 창의성보다 더 중요합니다. SLM은 LLM을 대체하지는 않지만 정밀, 속도 및 비용 효율성이 중요 할 때 이상적입니다. 기술은 더 적은 자원으로 더 많은 것을 달성하는 데 도움이됩니다. 그것은 항상 운전자가 아니라 프로모터였습니다. 증기 엔진 시대부터 인터넷 버블 시대에 이르기까지 기술의 힘은 문제를 해결하는 데 도움이되는 정도입니다. 인공 지능 (AI) 및보다 최근에 생성 AI가 예외는 아닙니다.

컴퓨터 비전 작업에 Google Gemini 모델을 사용하는 방법은 무엇입니까? - 분석 Vidhya컴퓨터 비전 작업에 Google Gemini 모델을 사용하는 방법은 무엇입니까? - 분석 VidhyaApr 27, 2025 am 09:26 AM

컴퓨터 비전을위한 Google Gemini의 힘을 활용 : 포괄적 인 가이드 주요 AI 챗봇 인 Google Gemini는 강력한 컴퓨터 비전 기능을 포괄하기 위해 대화를 넘어서 기능을 확장합니다. 이 안내서는 사용 방법에 대해 자세히 설명합니다

Gemini 2.0 Flash vs O4-Mini : Google은 OpenAi보다 더 잘할 수 있습니까?Gemini 2.0 Flash vs O4-Mini : Google은 OpenAi보다 더 잘할 수 있습니까?Apr 27, 2025 am 09:20 AM

2025 년의 AI 환경은 Google의 Gemini 2.0 Flash와 Openai의 O4-Mini가 도착하면서 전기가 전환됩니다. 이 최첨단 모델은 몇 주 간격으로 발사되어 비슷한 고급 기능과 인상적인 벤치 마크 점수를 자랑합니다. 이 심층적 인 비교

See all articles

핫 AI 도구

Undresser.AI Undress

Undresser.AI Undress

사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover

AI Clothes Remover

사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool

Undress AI Tool

무료로 이미지를 벗다

Clothoff.io

Clothoff.io

AI 옷 제거제

Video Face Swap

Video Face Swap

완전히 무료인 AI 얼굴 교환 도구를 사용하여 모든 비디오의 얼굴을 쉽게 바꾸세요!

뜨거운 도구

VSCode Windows 64비트 다운로드

VSCode Windows 64비트 다운로드

Microsoft에서 출시한 강력한 무료 IDE 편집기

SublimeText3 Linux 새 버전

SublimeText3 Linux 새 버전

SublimeText3 Linux 최신 버전

메모장++7.3.1

메모장++7.3.1

사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전

SublimeText3 중국어 버전

중국어 버전, 사용하기 매우 쉽습니다.

mPDF

mPDF

mPDF는 UTF-8로 인코딩된 HTML에서 PDF 파일을 생성할 수 있는 PHP 라이브러리입니다. 원저자인 Ian Back은 자신의 웹 사이트에서 "즉시" PDF 파일을 출력하고 다양한 언어를 처리하기 위해 mPDF를 작성했습니다. HTML2FPDF와 같은 원본 스크립트보다 유니코드 글꼴을 사용할 때 속도가 느리고 더 큰 파일을 생성하지만 CSS 스타일 등을 지원하고 많은 개선 사항이 있습니다. RTL(아랍어, 히브리어), CJK(중국어, 일본어, 한국어)를 포함한 거의 모든 언어를 지원합니다. 중첩된 블록 수준 요소(예: P, DIV)를 지원합니다.