다시 상위권 순위가 공개되면 기뻐하시는 분들도 계시고, 아쉬워하시는 분들도 계실텐데요.
IJCAI 2023에는 총 4,566개의 전문 제출이 접수되었으며, 합격률은 약 15%
질문 링크: https://www.zhihu.com/question/578082970
Zhihu에 대한 피드백 결과로 볼 때 전반적인 리뷰 품질은 여전히 만족스럽지 못하며(거부당한 것에 대한 원망일 수도 있습니다...), 심지어 일부 리뷰어는 내용도 읽지 않고 원고를 거부하기도 합니다. 반박.
점수는 같지만 결말이 다른 논문도 있습니다.
일부 네티즌들은 메타 리뷰를 거부하는 이유도 올렸는데, 모두 큰 단점이었습니다.
하지만 거절이 끝이 아니고, 더 중요한 것은 계속하는 것입니다.
Netizen Lower_Evening_4056은 랜드마크 논문이라도 여러 번 거절될 것이며 일부 논문은 뛰어난 수준이 아니더라도 승인될 수 있다고 믿습니다.
계속해서 그 합리적인 리뷰 댓글을 되돌아보면 여러분의 작업이 여전히 더 높은 수준으로 향상될 수 있다는 것을 알게 될 것입니다.
리뷰 시스템에는 결함이 있습니다, 더 중요한 것은 거절을 개인 또는 업무 가치에 대한 평가 결과로 간주하지 마세요. 귀하가 학생이고 지도교수가 작업의 질보다는 검토 결과를 기준으로 귀하를 평가하는 경우, 지도교수와의 관계를 다시 생각해 보는 것이 좋습니다.
NeurIPS 컨퍼런스에서는 평균 점수가 5~6.5 사이인 논문의 경우 승인 결과는 기본적으로 무작위이며 만나는 리뷰어에 따라 다릅니다.
예를 들어 어떤 사람의 논문 결과가 9665점이라고 해보자. 9점을 준 리뷰어를 만나지 못했다면 결과는 거절이 되어야 하는데, 우연히 볼레를 만나 리뷰 결과를 뒤집었다.
마지막으로, 인공지능 연구 발전에 도움을 준 공로로 논문을 수락한 연구자 여러분께 축하드립니다!
다음은 소셜 미디어에 공유된 승인된 논문입니다.
엔드 투 엔드 잡음 방지 음성 인식의 다중 작업 학습을 위한 기울기 보정
다운스트림 자동 음성 인식 시스템(ASR)에서는 음성 향상 학습 전략( SE) 시연된 시끄러운 음성 신호로 인해 생성된 소음을 효과적으로 줄일 수 있는 시스템은 다중 작업 학습 전략을 사용하여 두 작업을 공동으로 최적화합니다.
그러나 SE 타겟을 통해 학습된 증강 음성이 항상 좋은 ASR 결과를 생성하는 것은 아닙니다.
최적화 관점에서 보면 적응 작업의 기울기와 적응 반응 작업 사이에 간섭이 발생하는 경우가 있는데, 이는 다중 작업 학습을 방해하고 궁극적으로 만족스럽지 못한 적응 반응 성능으로 이어집니다.
논문 링크:https://arxiv.org/pdf/2302.11362.pdf
이 논문에서는 간섭 문제를 해결하기 위한 간단하고 효과적인 GR(그라디언트 보상) 방법을 제안합니다. 스틱 음성 인식의 작업 기울기 사이에 문제가 있습니다.
구체적으로 SE 작업의 기울기는 먼저 ASR 기울기와 예각으로 동적 표면에 투영되어 둘 사이의 충돌을 제거하고 ASR 최적화를 지원합니다.
또한 두 그라데이션의 크기는 지배적인 ASR 작업이 SE 그라데이션으로 인해 잘못 유도되는 것을 방지하기 위해 적응적으로 조정됩니다.
실험 결과에 따르면 이 방법은 다중 작업 학습 기준에서 RATS 및 CHiME-4에서 9.3%와 11.1%의 상대 단어 오류율(WER)을 달성했습니다. 데이터 세트를 각각 줄입니다.
제한된 Tsetlin Machine 절 크기로 간결한 논리 패턴 구축
Tsetlin Machine(TM)은 투명하고 하드웨어 친화적이라는 주요 이점을 갖춘 논리 기반 기계 학습 접근 방식입니다.
TM은 점점 더 많은 애플리케이션에서 딥 러닝의 정확성과 일치하거나 이를 능가하지만, 큰 절 풀은 리터럴(긴 절)이 많은 절을 생성하는 경향이 있어 이해하기가 어렵습니다.
또한 절이 길수록 하드웨어에서 절 논리의 스위칭 활동이 증가하고 전력 소비도 높아집니다.
논문 링크: https://arxiv.org/abs/2301.08190
본 논문에서는 새로운 TM 학습 방법, 즉 절 크기 제한 하위 문장 학습 방법(CSC)을 소개합니다. -TM), 절 크기에 대한 소프트 제약을 설정할 수 있습니다.
절에 제약 조건이 허용하는 것보다 더 많은 리터럴이 포함되면 리터럴이 제외되므로 더 큰 절은 잠시 동안만 나타납니다.
CSC-TM을 평가하기 위해 연구원들은 표 형식 데이터, 자연어 텍스트, 이미지 및 보드 게임에 대한 분류, 클러스터링 및 회귀 실험을 수행했습니다.
결과에 따르면 CSC-TM은 최대 80배의 텍스트 축소로 정확도를 유지합니다. 실제로 TREC, IMDb 및 BBC Sports는 정확도가 최고조에 달한 후 짧은 절에서 더 높은 정확도를 나타냅니다. 이는 절 크기가 단일 절에 가까워질수록 천천히 감소합니다. 텍스트.
마지막으로 이 기사에서는 CSC-TM의 전력 소비를 분석하고 새로운 융합 특성을 얻습니다.
#DNN 검증 문제: 심층 신경망에 대한 안전하지 않은 입력 계산
심층 신경망은 사용할 수 있지만 자율 주행과 같이 높은 수준의 안전이 필요한 중요한 작업에 점점 더 많이 사용되고 있습니다. DNN이 안전하지 않은지 확인하는 최첨단 유효성 검사기:
일부 속성(예: 안전하지 않은 입력 구성이 하나 이상 있는지 여부)이 주어지면 모델의 예/아니요 출력은 다른 목적에 유용합니다. (예: 차폐, 모델 선택 또는 훈련 개선을 위한 정보 부족)
문서 링크: https://arxiv.org/abs/2301.07068
이 문서에서는 #DNN-검증 문제를 소개합니다. 특정 보안 속성 연구원들은 DNN 입력 구성 수를 통해 이 문제의 복잡성을 분석하고 정확한 위반 횟수를 반환하는 새로운 방법을 제안했습니다.
문제는 P-완전이므로 계산 요구 사항을 크게 줄이면서 확률 한계의 정확한 개수를 증명할 수 있는 확률적 근사 방법을 제안합니다.
이 문서에서는 안전에 중요한 벤치마크 세트와 근사 방법의 효율성을 입증하고 제약 조건의 엄격함을 평가하는 실험 결과도 제시합니다.
위 내용은 2023년 졸업논문 목록 해석: 성공적인 초안이 두려우신가요? 반박으로 운명을 바꾸는 것이 어려운가? 리뷰어들은 편견을 갖고 있나요?의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!