AKOOL Forschung

Willkommen in unserem Forschungszentrum, in dem wir bahnbrechende Arbeiten in GenAI präsentieren.

Ausgewählte Veröffentlichungen

Erlernen energiebasierter Modelle durch kooperative Diffusionswiederherstellungswahrscheinlichkeit

Diese Studie stellt eine innovative Methode zum Erlernen energiebasierter Modelle unter Verwendung der kooperativen Diffusionswiederherstellungswahrscheinlichkeit vor. Unser Ansatz nutzt die Stärken kooperativer Lern- und Diffusionsprozesse, um die Trainingseffizienz und Effektivität energiegestützter Modelle zu verbessern.

Authors:

Yaxuan Zhu, Jianwen Xie, Ying Nian Wu, Ruiqi Gao

Conference:

Die zwölfte Internationale Konferenz über Lernrepräsentationen (ICLR), 2024

Journal:

Archive:

Read the Paper

Ein energiebasiertes Prior für generative Salienz

In diesem Artikel stellen wir einen neuartigen energiebasierten Prior für generative Salienzmodelle vor. Unser Ansatz verbessert die Interpretierbarkeit und Leistung der Salienzerkennung durch die Integration energiegestützter Techniken, was in verschiedenen Anwendungen zu genaueren und zuverlässigeren Ergebnissen führt.

Authors:

Jing Zhang, Jianwen Xie, Nick Barnes, Ping Li

Conference:

Journal:

IEEE-Transaktionen zu Musteranalyse und Maschinenintelligenz (TPAMI), 2023

Archive:

Read the Paper

Auf latenter Weltraumenergie basierende neuronale Knoten

Diese Forschung stellt einen neuartigen Rahmen für die Modellierung zeitkontinuierlicher sequentieller Daten unter Verwendung von Latent Space Energy-Based Neural Ordinary Differential Equations (ODEs) vor. Unser Ansatz verbessert die Modellierung sequentieller Daten und bietet neue Erkenntnisse für maschinelle Lernaufgaben.

Authors:

Sheng Cheng, Deqian Kong, Jianwen Xie, Kookjin Lee, Ying Nian Wu, Yezhou Yang

Conference:

Journal:

Transaktionen zur maschinellen Lernforschung (TMLR) 2025

Archive:

Read the Paper

Moleküldesign mit Latent Prompt Transformer

Wir schlagen den Latent Prompt Transformer (LPT) vor, ein neuartiges generatives Modell für herausfordernde Probleme des Moleküldesigns. Experimente zeigen, dass LPT nicht nur bei Optimierungsaufgaben mit einem Ziel, mehreren Zielen und strukturbeschränkten Optimierungsaufgaben effektiv nützliche Moleküle entdeckt, sondern auch eine hohe Probeneffizienz aufweist.

Authors:

Deqian Kong, Yuhao Huang, Jianwen Xie, Edouardo Honig, Ming Xu, Shuanghong Xue, Pei Lin, Sanping Zhou, Sheng Zhong, Nanning Zheng, Ying Nian Wu

Conference:

Die 38. Konferenz über neuronale Informationsverarbeitungssysteme (NeurIPS 2024)

Journal:

Archive:

Read the Paper

Odyssee auf Basis latenter Energie: Black-Box-Optimierung durch erweiterte Exploration im energiebasierten Latentraum

In diesem Artikel wird eine neuartige Black-Box-Optimierungsmethode vorgestellt, die als Latent Energy-Based Odyssey bekannt ist. Der Ansatz konzentriert sich auf eine erweiterte Exploration innerhalb eines energiebasierten Latenzraums, wodurch der Optimierungsprozess verbessert wird. Durch die Nutzung der Energielandschaft des latenten Raums verbessert die Methode die Effizienz und Effektivität von Optimierungsaufgaben und ist damit ein bedeutender Fortschritt auf dem Gebiet des maschinellen Lernens und der Optimierung.

Authors:

Peiyu Yu, Dinghuai Zhang, Hengzhi He, Xiaojian Ma, Ruiyao Miao, Yifan Lu, Yasi Zhang, Deqian Kong, Ruiqi Gao, Jianwen Xie, Guang Cheng, Ying Nian Wu

Conference:

Journal:

Archive:

Read the Paper

CooHash: Kooperatives Lernen von Mehrzweckdeskriptoren und kontrastiven Paargeneratoren mithilfe von variationalem MCMC-Unterricht für überwachtes Bild-Hashing

CooHash führt einen neuartigen Ansatz für überwachtes Bild-Hashing durch kooperatives Lernen ein. Durch die Nutzung des Variational Markov Chain Monte Carlo (MCMC) -Unterrichts werden gleichzeitig ein Mehrzweckdeskriptor und ein Generator für kontrastive Paare optimiert. Diese innovative Methode verbessert die Effizienz und Genauigkeit des Bild-Hashings und ist damit ein bedeutender Fortschritt auf diesem Gebiet.

Authors:

Khoa Doan, Jianwen Xie, Yaxuan Zhu, Yang Zhao, Ping Li

Conference:

Journal:

Archive:

Read the Paper

Latenter Plantransformator für Trajektorienabstraktion: Planung als latente Rauminferenz

In diesem Artikel stellen wir den Latent Plan Transformer vor, ein neuartiges Framework, das Planung als latente Variableninferenz behandelt. Unser Ansatz kombiniert die Stärken von Transformatoren und Modellen latenter Variablen, um eine robuste und effiziente Planung in komplexen Umgebungen zu erreichen.

Authors:

Deqian Kong, Dehong Xu, Minglu Zhao, Bo Pang, Jianwen Xie, Andrew Lizarraga, Yuhao Huang, Sirui Xie, Ying Nian Wu

Conference:

Die 38. Konferenz über neuronale Informationsverarbeitungssysteme (NeurIPS 2024)

Journal:

Archive:

Read the Paper

Progressives energiebasiertes kooperatives Lernen für die Bild-zu-Bild-Übersetzung aus mehreren Domänen

Wir schlagen einen fortschrittlichen energiebasierten kooperativen Lernrahmen für die Bild-zu-Bild-Übersetzung aus mehreren Domänen vor. Diese Methode begegnet den Herausforderungen der Domänenanpassung und -übersetzung, indem sie den Lernprozess schrittweise verfeinert, was zu einer überragenden Leistung in mehreren Bereichen führt.

Authors:

Weinan Song, Yaxuan Zhu, Lei He, Ying Nian Wu, Jianwen Xie

Conference:

Journal:

Archive:

ArXiv, 2024

Read the Paper

Über uns

Unser Team besteht aus renommierten Forschern renommierter Institutionen, die gemeinsam daran arbeiten, das Gebiet der künstlichen Intelligenz voranzutreiben. Wir konzentrieren uns auf die Entwicklung innovativer Lösungen, die reale Probleme angehen und einen Beitrag zur breiteren wissenschaftlichen Gemeinschaft leisten.

Bleiben Sie in Verbindung

Kontaktieren Sie uns: Für Anfragen, Kooperationen oder weitere Informationen zu unserer Forschung wenden Sie sich bitte an uns unter info@akool.com.