Skip to content

关于微调的问题 #99

@BestMt111

Description

@BestMt111

感谢作者更新v0.7模型,但在微调时面临一些难题:

  1. 我注意到其他问题中说:10min数据lora微调就可以达到一个不错的效果。请问这里作者组织训练数据的方式是带有prompt的双人对话数据形式,同时推理时保持一致的prompt对吗。但目前我自己的场景中,缺少这样的对话数据,只有个人的训练数据,请问这种情况下,我应该如何组织数据比较好。
  2. 在该背景下,如果全部组织为单人数据进行训练,但推理仍然使用spkid进行说话人切换,会不会导致严重错误。是否需要人为进行裁剪拼接,强行保证对话数据格式。

Metadata

Metadata

Assignees

No one assigned

    Labels

    No labels
    No labels

    Type

    No type

    Projects

    No projects

    Milestone

    No milestone

    Relationships

    None yet

    Development

    No branches or pull requests

    Issue actions