최적화된 객체 감지 및 추적 구성
(英伟网Nweon 2024년 1월 4일) 확장 현실 장치는 카메라를 통해 대상 이벤트나 객체를 감지, 추적 및 식별할 수 있습니다. 기존의 추적 시스템은 사용자가 맨손으로 수행하거나 물체를 잡고 있는 사용자가 수행하는 제스처와 같은 사용자 제스처를 올바르게 감지하지 못할 수 있습니다.
'확장 현실 장치의 객체 감지 및 추적'이라는 특허 출원에서 Qualcomm은 최적화된 객체 감지 및 추적 구성을 제안했습니다.
일 실시예에서, 객체 감지 및 추적 장치는 하나 이상의 광학 요소를 포함할 수 있으며, 사용자가 수행하는 입력 제스처를 식별하기 위해 가상 환경에서 사용자의 하나 이상의 객체 또는 신체 부위를 감지할 수 있습니다. 객체 감지 및 추적 장치는 카메라 시야에서 객체를 감지하고 해당 객체가 특정 사용자에 해당하는지 판단할 수 있습니다.
예를 들어, 객체 감지 및 추적 장치는 객체가 사용자에 해당하고 입력 제스처를 제공하는 데 사용되고 있는지 판단할 수 있습니다. 객체 검출 및 추적 장치는 추가적으로 또는 대안적으로 객체가 사용자에 대응하지 않으므로 입력 제스처를 제공하는 데 사용되지 않을 것이라고 결정할 수 있습니다.
다른 실시예에서, 객체 감지 및 추적 장치는 사용자 객체의 고유한 윤곽 감지에 기초하여 추적을 수행하기 위해 객체 감지 및 추적 장치의 메모리에 저장된 명령을 실행하는 하나 이상의 프로세서를 포함할 수 있습니다.
예를 들어, 사용자의 고유 프로필에는 사용자의 손, 손바닥 지문, 손바닥 윤곽, 사용자 손톱 크기, 사용자 손톱 모양, 사물의 색상 등을 특징짓는 하나 이상의 모양이 포함될 수 있습니다. 객체 감지 및 추적 장치는 사용자의 프로필을 기반으로 사용자로부터 하나 이상의 입력 제스처를 감지하기 위해 사용자의 프로필을 기반으로 객체를 추적하기 위한 명령을 수행할 수 있다.
일 실시예에서 객체 감지 및 추적 장치는 하나 이상의 프로세서를 포함할 수 있으며, 프로세서는 하나 이상의 훈련된 기계 학습 프로세스를 수행하여 사용자의 객체를 감지하여 하나 이상의 제스처 입력을 추적하고 수신합니다.
예를 들어, 초기화 과정에서 타겟 탐지 및 추적 장치는 타겟 탐지 및 추적 장치의 카메라 또는 센서에 의해 감지된 객체를 사용자 제스처 입력을 감지하기 위한 객체로 선택하도록 사용자에게 요청할 수 있습니다. 객체 검출 및 추적 장치는 선택된 객체의 복수의 데이터 포인트와 선택된 객체의 다차원 모델을 생성하기 위해 선택된 객체를 특징짓는 이미지 데이터에 훈련된 기계 학습 프로세스를 적용할 수 있습니다.
또한 표적 탐지 및 추적 장치는 훈련된 기계 학습 프로세스를 표적의 다차원 모델에 적용하여 행동 지점을 추정할 수 있습니다. 일례로, 객체 감지 및 추적 장치는 기계 학습 프로세스가 해당 제스처의 3차원 공간에서 동작 지점을 반복적으로 변경할 수 있는 기계 학습 프로세스를 위한 훈련 모드를 구현할 수 있습니다.
예를 들어, 타겟 탐지 및 추적 장치는 생성된 동작 지점을 기반으로 제스처를 결정할 수 있으며, 결정된 제스처가 올바른지 확인하기 위해 사용자에게 확인을 요청하고 받을 수 있습니다.
하나 이상의 프로세서가 객체의 다차원 모델에 기계 학습 프로세스를 적용하여 조회 테이블을 생성할 수 있습니다. 룩업 테이블은 제스처 목록과 객체가 제스처 중에 걸쳐 있을 수 있는 3차원 공간의 추적 지점 시퀀스를 포함할 수 있습니다. 트래킹 포인트는 3차원 공간에서의 각 트래킹 포인트의 x, y, z 좌표를 포함할 수 있다.
훈련 과정이 완료되면 하나 이상의 프로세서가 추적 지점의 값과 시퀀스, 해당 동작을 객체 감지 및 추적 장치의 저장 장치에 조회 테이블로 저장할 수 있습니다. 객체에 대응하는 룩업 테이블은 하나 이상의 프로세서가 객체의 움직임을 추적하면서 객체에 의한 제스처를 감지하고 인식할 수 있게 해준다.
도 1은 예시적인 표적 탐지 및 추적 장치(100)의 블록도이다. 도 1의 실시예에 도시된 바와 같이, 표적 탐지 및 추적 장치(100)는 이미지 센서(112A)와 같은 하나 이상의 이미지 센서(112), 렌즈(113A), 및 카메라 프로세서(114)와 같은 하나 이상의 카메라 프로세서를 포함할 수 있다.
객체 탐지 및 추적 장치(100)는 중앙 처리 장치(116), 인코더/디코더(117), 그래픽 처리 장치(118), GPU(118)의 로컬 메모리(120), 사용자 인터페이스(122), 시스템에 대한 액세스를 제공하는 컴퓨터를 더 포함할 수 있습니다. 메모리(130), 명령 메모리(132), 메모리 컨트롤러(124), 및 디스플레이 인터페이스(126).
객체 검출 및 추적 장치(100)는 사용자 인터페이스(122)를 통해 사용자 입력을 수신할 수 있고, 수신된 사용자 입력에 응답하여 CPU(116) 및/또는 카메라 프로세서(114)는 CPU(116) 및/또는 카메라 프로세서에 대응하는 렌즈를 활성화할 수 있다. 114. 예를 들어, 수신된 사용자 입력은 렌즈(113A)에 의해 보이는 물체/손이 입력 제스처에 대해 추적되어야 하는 사용자의 물체/손이라는 확인에 대응할 수 있습니다.
그림 2A는 XR 시스템의 추적 범위를 보여줍니다. 도 2A는 시야(204)를 갖는 사용자(202)를 포함한다. 도 2A에 도시된 바와 같이, 사용자(202)의 시야(204)는 120도의 각도 확산을 가질 수 있다. 시야(204)는 VR, AR 또는 XR 시스템이 사용자 입력 제스처(202)를 추적할 수 있는 영역일 수 있습니다.
예를 들어 VR, AR 또는 XR 시스템은 시야(204) 내의 객체, 즉 사용자의 손을 추적할 수 있습니다. 시야(204)는 사용자로부터의 제1 반경으로부터 사용자로부터의 제2 반경까지 연장될 수 있다. 도 2a에 도시된 바와 같이, 시야(204)는 사용자(202)의 눈으로부터 약 10cm의 반경으로부터 사용자로부터 60-80cm의 반경까지 확장될 수 있다.
그림 2A는 시야(204)에 있는 사용자(202)의 손을 보여주지만, 서로 다른 사용자의 여러 손이 시야(204)에 나타날 수도 있습니다. VR, AR 또는 XR 시스템은 시야(204)에 삽입된 손을 감지하고, 각 손이 해당 사용자와 연관되어 있는지 여부를 결정하고, 해당 사용자와 연관된 손을 추적할 수 있습니다. 예를 들어 VR, AR 또는 XR 시스템은 각 사용자의 입력 제스처를 감지할 수 있습니다.
그림 2B는 표적 탐지 및 추적을 초기화하는 데 사용되는 배치 영역(206)이 있는 사용자의 시야(204)를 보여줍니다. 도 2B는 시야(204)를 갖는 사용자(202)와 시야(204) 내의 배치 영역(206)을 포함한다.
일 실시예에서, 객체 검출 및 추적 프로세스의 초기화 동안, 객체 검출 및 추적 장치(100)는 가상 환경에서 배치 영역(206)의 하이라이트를 생성하여 사용자(202)에게 표시할 수 있다.
예를 들어, CPU(116)는 검출 유닛(132A)에 저장된 명령을 실행하여 사용자(202)가 배치 영역(206)에 객체를 삽입하라는 요청을 생성할 수 있습니다. 디스플레이 유닛(208)은 배치 영역(206)이 가상 화면에서 강조 표시되도록 할 수 있습니다. 객체 검출 및 추적 장치(100)는 초기화 시, 배치 영역(206)에 존재하는 객체를 사용자(202)의 입력 제스처를 인식하기 위해 추적할 사용자(202)의 객체로 검출할 수 있다.
프로젝션 장치(302)는 객체 감지 및 추적 장치(100)에 의한 감지를 위해 사용자가 배치 영역(308)에 손(310)을 삽입할 수 있는 각도를 사용자에게 강조할 수 있습니다. 일례에서, 프로젝션 장치(302)는 배치 영역(308)으로의 삽입 방향을 식별하고 손(310)을 감지하는 이미지를 가상 환경에서 생성 및 디스플레이할 수 있다.
일 실시예에서, 타겟 탐지 및 추적 장치(100)는 손(310)의 삽입 각도가 일정 범위 내에 있는지 여부를 판단하고, 판단에 기초하여 손(310)을 사용자의 손으로 식별하는 윤곽 데이터를 생성할 수 있다. 예를 들어, 미리 정해진 범위는 사용자(202)의 시야에 따른 각도 값의 범위일 수 있다.
타겟 탐지 및 추적 장치(100)는 손(310)의 감지 삽입 각도가 미리 정해진 값 범위 내에 있다고 판단하면, 타겟 탐지 및 추적 장치(100)는 손(310)을 사용자가 추적할 대상으로 등록할 수 있다. 마찬가지로, 객체 검출 및 추적 장치(100)는 배치 영역(308)에 삽입되는 방향이 적절한 방향이라고 판단하고, 객체 검출 및 추적 장치(100)는 손(310)을 사용자에게 추적할 객체로 등록할 수 있다.
또 다른 예로, 객체 검출 및 추적 장치(100)는 손(310)의 삽입 각도가 미리 정해진 수치 범위 내에 있지 않다고 판단하여, 손(310)을 사용자와 연관시키지 않을 수도 있다. 유사하게, 객체 검출 및 추적 장치(100)는 배치 영역(308)으로의 삽입 방향이 적절한 방향이 아니라고 결정할 수 있고, 손(310)을 사용자와 연관시키지 않을 수 있다.
이와 같이 객체 검출 및 추적 장치(100)는 손(310)을 추적 대상으로 등록하지 않을 수 있다. 일 실시예에서, 객체 검출 및 추적 장치(100)는 제안된 각도 및/또는 방향으로 손(310)에 다시 들어가도록 사용자(202)에게 요청할 수 있다.
예를 들어, 객체 감지 및 추적 장치(100)는 삽입 각도 및/또는 삽입 방향을 통해 사용자(202)가 손을 삽입할 수 있는 삽입 각도 및/또는 삽입 방향을 사용자(202)에게 나타내기 위해 배치 영역(308) 내부 또는 근처에 투사를 통해 시각적 신호를 제공할 수 있습니다. 310은 XR 시스템을 통해 사용자 202의 손으로 성공적으로 등록되었습니다.
그림 4는 손을 식별하는 데 사용되는 표시 기술을 보여줍니다. 도 4는 손(402, 404)을 포함하며, 각 손은 각각 복수의 랜드마크(406, 408)를 포함한다. 객체 검출 및 추적 장치(100)는 랜드마크(406, 408)에 기초하여 본 명세서에 설명된 바와 같이 사용자(202)의 손을 고유하게 식별할 수 있다.
예를 들어, 각 랜드마크(406, 408)는 각각 사용자(202)의 손(402, 404)의 기하학적 구조를 고유하게 설명하는 점 집합일 수 있습니다. 객체 감지 및 추적 장치(100)는 손 선 그리기를 기반으로 손(402, 404)을 감지하고 식별할 수 있다.
표적 탐지 및 추적 장치(100)는 랜드마크(406, 408)를 표적 탐지 및 추적 장치(100)의 메모리에 저장된 포인트 집합과 비교할 수 있다. 일치 검출에 성공한 객체 검출 및 추적 장치(100)는 배치 영역에 삽입된 손이 사용자(202)의 손이라고 판단하고, 검출된 객체를 사용자(202)의 객체로 등록함으로써, 사용자(202)로부터의 입력 제스처를 추적 및 수신할 수 있다. 사용자(202).
그림 5A는 손을 고유하게 식별하는 데 사용할 수 있는 손바닥 선을 보여줍니다. 도 5A에 도시된 바와 같이, 도 5A는 장문(506)(라인 1-7)을 포함한다. 객체 검출 및 추적 장치(100)는 손바닥 라인(506)을 특징짓는 데이터와 손바닥 라인을 특징짓고 객체 검출 메모리에 저장된 다른 데이터 세트를 비교하는 것에 기초하여 도 5a에 도시된 특징을 갖는 객체를 고유하게 식별하고 검출할 수 있다. 및 추적 장치(100).
일치 성공으로 판단한 후, 타겟 탐지 및 추적 장치(100)는 배치 영역(308)에 삽입된 손을 사용자(202)의 손으로 판단하고, 사용자(202)의 제스처를 판단하는 등 손의 움직임을 추적할 수 있다. 사용자 202. 객체 검출 및 추적 장치(100)는 성공적인 일치를 결정하기 위해 전술한 바와 같이 손바닥 라인(506)을 이용하는 것으로 제한되지 않는다.
일 실시예에서, 객체 검출 및 추적 장치(100)는 손을 고유하게 식별하기 위해 손바닥 윤곽, 손 모양, 손톱 크기, 손톱 모양, 손 색깔 등과 같은 사용자(202) 손의 다른 고유한 특성을 활용할 수 있습니다. . 일단 검출되면, 객체 검출 및 추적 장치(100)는 손을 XR 시스템의 사용자(202)의 손으로 등록하는 윤곽 데이터를 생성할 수 있다. 객체 검출 및 추적 장치(100)는 윤곽 데이터에 기초하여 사용자(202)로부터 입력 제스처를 수신하기 위해 손 동작을 추적할 수 있다.
그림 5B는 손을 고유하게 식별하는 데 사용할 수 있는 손바닥 윤곽 맵을 보여줍니다. 도 5B는 도 5B에 도시된 손바닥 윤곽 이미지 데이터(504)를 포함한다. 손바닥 프로필 이미지 데이터(504)는 객체 검출 및 추적 장치(100)의 카메라(115)에 의해 캡처된 이미지에 기초할 수 있다. 객체 검출 및 추적 장치(100)는 손바닥 프로필 이미지 데이터(504)에 의해 표현되는 손바닥 프로필을 갖는 손을 고유하게 식별하고 검출할 수 있다.
예를 들어, 타겟 탐지 및 추적 장치(100)는 손바닥 프로필 이미지 데이터(504)와 전술한 타겟 탐지 및 추적 장치(100)의 메모리에 저장된 손바닥 프로필 데이터를 비교하여 손바닥 프로필이 일치하는지 판단할 수 있다.
일 실시예에서, 시스템 메모리(132)는 다수의 사용자에 대한 손바닥 프로필 데이터를 저장합니다. 손바닥 윤곽 데이터는 이미지에 캡처된 손 윤곽을 따라 여러 픽셀 위치를 식별하고 특성화할 수 있습니다. 객체 검출 및 추적 장치(100)는 사용자를 식별하기 위해 사용자에 대한 임의의 손바닥 프로필 데이터가 손바닥 프로필 이미지 데이터(504)의 프로필과 일치하는지 여부를 결정하는 동작을 수행할 수 있습니다.
일치에 성공했다고 판단한 후, 타겟 탐지 및 추적 장치(100)는 배치 영역(308)에 삽입된 손을 사용자(202)의 손으로 판단하고, 손 제스처를 사용자(202)의 입력 제스처로 감지 및 추적할 수 있다. .
그림 6은 XR 시스템의 추적 기술을 보여줍니다. 도 6은 시야(604)를 갖는 사용자(602)를 포함한다. 사용자(602)의 시야(604)는 도 6에 도시된 바와 같이 120도와 같은 수 도의 각도 확장을 가질 수 있다. 일반적으로, 시야(604)는 VR, AR 또는 XR 시스템이 사용자(602) 입력 제스처를 추적할 수 있는 실제 환경의 영역일 수 있습니다.
도 6에 도시된 바와 같이, 시야(604)는 사용자의 눈(602)으로부터 약 10 cm의 반경으로부터 사용자로부터 60-80 cm 범위의 반경까지 확장될 수 있다.
그림 7은 손의 20개 지점을 사용한 손 추적 다이어그램을 보여줍니다. 여기에는 20개 지점 각각이 일반 손의 특정 위치에 따라 설명되어 있습니다. 그러나 사용자의 손이 5개가 아닌 4개의 손가락을 가지고 있는 등 불규칙한 모양을 가지고 있거나 사용자가 손을 가리고 있는 경우에는 도 7A에 표시된 20개의 지점 각각이 존재하지 않거나 식별할 수 없습니다.
예를 들어, 그림 8A는 덮개를 씌운 손을 보여주는 개략도입니다. 그림 8A에는 벙어리 장갑이 손을 덮고 있는 손(802)과 손(802)의 모양을 나타내는 윤곽선(804)이 포함되어 있습니다.
그림 7과 비교하면, 사용자의 손을 인식하고 감지하는 데 사용되는 20포인트 모델은 입력 제스처를 인식하는 데 사용되는 손(802)의 움직임을 감지하거나 추적하는 데 사용되지 않을 수 있습니다. 적어도 손(802)은 매핑될 수 없기 때문입니다. 20개 포인트 모두, 또는 20개 포인트 기술을 사용하여 손(802)을 검출하고 추적하기에 충분한 수의 포인트로 매핑합니다.
그림 8B는 불규칙한 모양의 손을 보여주는 개략도입니다. 도 8b는 불규칙한 모양(예: 가운데 손가락이 없음)을 갖는 손(806), 손(806)의 모양을 설명하는 윤곽선(808)을 포함합니다. 도 7과 달리, 사용자의 손을 식별하고 감지하는 데 사용되는 20점 모델은 입력 제스처를 인식하는 데 사용되는 손(806)의 모션을 감지하거나 추적하는 데 사용되지 않을 수 있습니다. 적어도 손(802)이 매핑되지 않을 수 있기 때문입니다. 20개 포인트 모두에 매핑하거나, 20포인트 기술을 사용하여 손(802)을 탐지하고 추적하기에 충분한 수의 포인트에 매핑합니다.
그러나, 도 9에 도시된 초기화 시동 기술을 사용하면 객체 감지 및 추적 장치(100)가 예상치 못한 객체의 모양과 크기를 감지할 수 있습니다.
구체적으로 그림 9는 예상치 못한 모양이나 불규칙한 모양의 손을 추적하는 손 추적 기술을 보여줍니다. 도 9는 윤곽선(904)을 갖는 손(902)을 포함한다. 가려진 손(또는 모양이 불규칙한 손)을 감지한 후, 객체 감지 및 추적 장치(100)는 손(902)의 이미지에 기초하여 손(902)에 대한 복수의 데이터 포인트(906)를 생성할 수 있다.
객체 감지 및 추적 장치(100)는 여러 데이터 포인트(906)를 기반으로 손(902)의 다차원 모델을 생성할 수 있습니다. 예를 들어, 객체 감지 및 추적 장치(100)는 XR 시스템의 하이브리드 환경의 실제 환경에서 손(902)의 하나 이상의 이미지를 캡처하고 3차원 공간에 데이터 포인트(906)를 플롯하여 다차원 모델을 생성할 수 있습니다. 손 902.다차원 모델은 손(902)의 3D 모델일 수 있습니다. 객체 검출 및 추적 장치(100)는 또한 손(902)의 다차원 모델 및 검출된 제스처에 기초하여 복수의 동작 지점을 생성할 수 있다. 객체 검출 및 추적 장치(100)는 복수의 추적 지점을 더 결정할 수 있다.
추적 지점은 제스처를 할 때 손(902)이 확장될 것으로 예상되는 3차원 공간의 지점일 수 있으며, 추적 지점은 손(902)에 특정한 조회 테이블에 저장될 수 있습니다. 조회 테이블의 추적 지점의 각 시퀀스는 제스처에 대응할 수 있습니다. 손(902)이 3차원 공간에서 이동함에 따라, 객체 검출 및 추적 장치(100)는 룩업 테이블을 이용하여 손(902)의 제스처를 결정할 수 있다.
관련 특허: Qualcomm 특허 | 확장 현실 장치의 객체 감지 및 추적https://patent.nweon.com/32609
'확장 현실 장치의 객체 감지 및 추적'이라는 제목의 Qualcomm 특허 출원은 원래 2022년 6월에 제출되었으며 최근 미국 특허청에 공개되었습니다.
일반적으로 미국 특허 출원은 검토 후 출원일 또는 우선일로부터 18개월 후에 자동으로 공개되거나, 출원인의 요청에 따라 출원일로부터 18개월 이내에 공개된다는 점에 유의해야 합니다. 응모자. 특허 출원이 공개되었다고 해서 해당 특허가 승인되었음을 의미하는 것은 아닙니다. 특허 출원이 접수된 후 USPTO는 실제 검토를 요구하며, 이는 1~3년 정도 걸릴 수 있습니다.
또한 이는 특허 출원일 뿐 승인을 의미하는 것은 아니며, 실제로 상용화될지 여부와 실제 적용 효과도 확실하지 않습니다.
---
원본링크 : https://news.nweon.com/116552
위 내용은 AR/VR 제스처 상호 작용을 위한 객체 감지 및 추적 구성을 개선하기 위한 Qualcomm 특허 제안의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

ON-DEVICE AI의 힘을 활용 : 개인 챗봇 CLI 구축 최근에 개인 AI 조수의 개념은 공상 과학처럼 보였다. 기술 애호가 인 Alex, 똑똑하고 현지 AI 동반자를 꿈꾸는 것을 상상해보십시오.

AI4MH의 첫 출시는 2025 년 4 월 15 일에 열렸으며, 유명한 정신과 의사이자 신경 과학자 인 Luminary Dr. Tom Insel 박사는 킥오프 스피커 역할을했습니다. Insel 박사는 정신 건강 연구 및 테크노에서 뛰어난 작업으로 유명합니다.

Engelbert는 "WNBA가 모든 사람, 플레이어, 팬 및 기업 파트너가 안전하고 가치가 있으며 권한을 부여받는 공간으로 남아 있기를 원합니다. 아노

소개 Python은 특히 데이터 과학 및 생성 AI에서 프로그래밍 언어로 탁월합니다. 대규모 데이터 세트를 처리 할 때 효율적인 데이터 조작 (저장, 관리 및 액세스)이 중요합니다. 우리는 이전에 숫자와 st를 다루었습니다

다이빙하기 전에 중요한 경고 : AI 성능은 비 결정적이며 고도로 사용하는 것이 중요합니다. 간단히 말하면 마일리지는 다를 수 있습니다. 이 기사 (또는 다른) 기사를 최종 단어로 취하지 마십시오. 대신 에이 모델을 자신의 시나리오에서 테스트하십시오.

뛰어난 AI/ML 포트폴리오 구축 : 초보자 및 전문가를위한 안내서 인공 지능 (AI) 및 머신 러닝 (ML)의 역할을 확보하는 데 강력한 포트폴리오를 만드는 것이 중요합니다. 이 안내서는 포트폴리오 구축에 대한 조언을 제공합니다

결과? 소진, 비 효율성 및 탐지와 동작 사이의 넓은 차이. 이 중 어느 것도 사이버 보안에서 일하는 사람에게는 충격이되지 않습니다. 그러나 에이전트 AI의 약속은 잠재적 인 전환점으로 부상했다. 이 새로운 수업

장기 파트너십 대 즉각적인 영향? 2 주 전 Openai는 2025 년 5 월 말까지 미국과 캐나다 대학생들에게 Chatgpt Plus에 무료로 이용할 수있는 강력한 단기 제안으로 발전했습니다.


핫 AI 도구

Undresser.AI Undress
사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover
사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool
무료로 이미지를 벗다

Clothoff.io
AI 옷 제거제

AI Hentai Generator
AI Hentai를 무료로 생성하십시오.

인기 기사

뜨거운 도구

SublimeText3 중국어 버전
중국어 버전, 사용하기 매우 쉽습니다.

MinGW - Windows용 미니멀리스트 GNU
이 프로젝트는 osdn.net/projects/mingw로 마이그레이션되는 중입니다. 계속해서 그곳에서 우리를 팔로우할 수 있습니다. MinGW: GCC(GNU Compiler Collection)의 기본 Windows 포트로, 기본 Windows 애플리케이션을 구축하기 위한 무료 배포 가능 가져오기 라이브러리 및 헤더 파일로 C99 기능을 지원하는 MSVC 런타임에 대한 확장이 포함되어 있습니다. 모든 MinGW 소프트웨어는 64비트 Windows 플랫폼에서 실행될 수 있습니다.

드림위버 CS6
시각적 웹 개발 도구

mPDF
mPDF는 UTF-8로 인코딩된 HTML에서 PDF 파일을 생성할 수 있는 PHP 라이브러리입니다. 원저자인 Ian Back은 자신의 웹 사이트에서 "즉시" PDF 파일을 출력하고 다양한 언어를 처리하기 위해 mPDF를 작성했습니다. HTML2FPDF와 같은 원본 스크립트보다 유니코드 글꼴을 사용할 때 속도가 느리고 더 큰 파일을 생성하지만 CSS 스타일 등을 지원하고 많은 개선 사항이 있습니다. RTL(아랍어, 히브리어), CJK(중국어, 일본어, 한국어)를 포함한 거의 모든 언어를 지원합니다. 중첩된 블록 수준 요소(예: P, DIV)를 지원합니다.

스튜디오 13.0.1 보내기
강력한 PHP 통합 개발 환경
