image.png (1.6 MB, 下载次数: 0)
下载附件
保存到相册
昨天22:59 上传
研究人员利用名为「HPTSA」的方法,让大语言模型协同工作,成功入侵了超过一半的测试网站。这种方法使得多个大语言模型们可以如同老板与下属一般规划工作、分配任务。大大减轻单个模型的工作负担。在测试中,模型们利用的是之前未知的「零日」漏洞。
研究人员同时指出:聊天机器人模式下的 GPT-4 "不足以理解 LLM 的能力",本身无法进行任何攻击。
来源:https://newatlas.com/technology/gpt4-autonomously-hack-zero-day-security-flaws/
这是炒作还是真的?越来越没有安全感!