英国巴斯大学和德国达姆斯塔理工大学的研究人员报告,ChatGPT 等大模型 (LLM) 无法独立学习或获得新技能,意味着它们不会对人类构成生存威胁。研究表明,LLM 具有遵循指令和精通语言的表层能力,但如果没有明确的指导,它们不具有掌握新技能的潜力。这意味着它们是可控的、可预测的和安全的。研究小组的结论是,在越来越大数据集上训练的 LLM 可以继续部署而不会有安全问题,但该技术仍然可能会被滥用。
© 2024, 免責聲明:* 文章不代表本網立場,如有侵權,請盡快聯繫我們 info@uscommercenews.com * 讀者評論僅代表其個人意見,不代表本網立場。評論不可涉及非法、粗俗、猥褻、歧視,或令人反感的內容,本網有權刪除相關內容。.