-
Notifications
You must be signed in to change notification settings - Fork 33
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
关于损失函数 #18
Comments
您好,对比损失代码实现时为最小化负的互信息,所以负值是正常情况。 |
感谢您的回复!
几个问题我想请教一下。
1.目前我使用自己的数据集并将missing_rate,这是否就意味着不会对原始训练数据进行任何处理。
2.如果我希望将该模型扩展至2个视图以上,最简单的方法是否可以两两之间使用相关损失函数。
期待您的解答。
…------------------ 原始邮件 ------------------
发件人: "XLearning-SCU/2021-CVPR-Completer" ***@***.***>;
发送时间: 2023年2月8日(星期三) 晚上7:43
***@***.***>;
***@***.******@***.***>;
主题: Re: [XLearning-SCU/2021-CVPR-Completer] 关于损失函数 (Issue #18)
您好,对比损失代码实现时为最小化负的互信息,所以负值是正常情况。
聚类指标低可能需要调整超参数,比如loss.py中的lamb,可以设为0试试。同时可以调整重建和预测损失的权重。上述超参数均在configure.py中配置。
—
Reply to this email directly, view it on GitHub, or unsubscribe.
You are receiving this because you authored the thread.Message ID: ***@***.***>
|
@ChenyuxinXMU 感谢您的关注!
|
十分感谢您的解答! |
您好!抱歉再次打扰,我有个问题想要请教一下。
您在论文中提到,最大化互信息的损失函数中,用于调节信息熵的平衡系数lamb越高,意味着嵌入表示z中包含更丰富的信息,并且您做了相应参数实验。
我在使用您的代码运行其他数据集时,发现lamb设为0往往可以达到最好的效果,这是什么原因呢?该如何解释这一现象?
期待您的解答!十分感谢!
------------------ 原始邮件 ------------------
发件人: "XLearning-SCU/2021-CVPR-Completer" ***@***.***>;
发送时间: 2023年2月8日(星期三) 晚上7:43
***@***.***>;
***@***.******@***.***>;
主题: Re: [XLearning-SCU/2021-CVPR-Completer] 关于损失函数 (Issue #18)
您好,对比损失代码实现时为最小化负的互信息,所以负值是正常情况。
聚类指标低可能需要调整超参数,比如loss.py中的lamb,可以设为0试试。同时可以调整重建和预测损失的权重。上述超参数均在configure.py中配置。
—
Reply to this email directly, view it on GitHub, or unsubscribe.
You are receiving this because you authored the thread.Message ID: ***@***.***>
|
Sign up for free
to join this conversation on GitHub.
Already have an account?
Sign in to comment
您好,
我尝试用您的模型跑自己的数据集(两个视图),但是出现了对比损失为负数,且聚类指标越来越低的情况。这可能是什么原因呢?
The text was updated successfully, but these errors were encountered: