以下是关于人工智能的最新研究进展及其成果的相关信息:
chatgpt,google bard在日常工作生活中很有用,这些技术也极大加速了医疗健康生物制药的研究,ai已经在抗癌,抗衰老,早期疾病防治等的研究应用中起着重要作用。以下是一些最新的进展:1、ai提前三年诊断胰腺癌,如果当年有这个,也许乔布斯还在世:https://hms.harvard.edu/news/ai-predicts-future-pancreatic-cancerImage:Rasi Bhadramani/iStock/Getty Images Plus2、两名高中生与医疗技术公司Insilico Medicine及其人工智能平台PandaOmics合作,发现了与胶质母细胞瘤相关的三个新靶基因,这些基因对于有效对抗这种癌症至关重要:https://finance.yahoo.com/news/teenage-geniuses-ai-uncover-cancer-163541619.html3、ai帮助抗衰老;由Integrated Biosciences领导的一项最新研究通过使用人工智能筛查了超过800,000种化合物,专家们发现了三种高效的药物候选物,其药理学性质优于目前已知的抗衰老物质:https://www.earth.com/news/artificial-intelligence-identifies-new-anti-aging-compounds/4、使用ai寻找阿尔兹海默症的治疗方法;亚利桑那大学与哈佛大学共同利用人工智能对健康神经元在疾病进展过程中的分子变化研究,以识别阿尔茨海默病的原因和潜在药物靶点。https://medicalxpress.com/news/2023-05-scientists-ai-drug-alzheimer.html5 ai帮助早期诊断帕金森;悉尼新南威尔士大学的科学家与波士顿大学研究人员使用神经网络分析患者体液中的生物标志物,在帕金森病的第一个症状出现前几年就可以发现该疾病。
随着AI不断发展,AI应用中的新功能带来新漏洞,现有企业,研究学者已加强对“越狱”的研究。OpenAI提出了通过“指令层次结构”来修复“忽略所有先前指令“攻击的方法。这确保LLM不会为用户和开发人员的指令分配同等优先级。这已在GPT-40 Mini中得到部署。Anthropic在多重越狱方面的工作表明了“警告防御”的潜力,它在前面和后面添加警告文本,以警示模型不要被越狱。与此同时,Gray Swan AI的安全专家已试用“断路器”。它不是试图检测攻击,而是专注于重新映射有害表示,这样模型要么拒绝遵守,要么产生不连贯的输出。他们发现这比标准拒绝训练效果更好。LLM测试初创公司Haize Labs与Hugging Face合作创建了首个红队抵抗组织基准。它汇编了常用的红队数据集并根据模型评估它们的成功率。同时,Scale根据私人评估推出了自己的稳健性排行榜。除了越狱之外,还可能存在更隐蔽的攻击虽然越狱通常是安全挑战中早已公开的事实,但潜在的攻击面要广泛得多,涵盖从训练到偏好数据和微调的所有内容。例如伯克利和麻省理工学院的研究人员创建了一个看似无害的数据集,但它会训练模型响应编码请求产生有害输出。当应用于GPT-4时,该模型始终按照有害指令行事,同时避开常见的保护措施。安全研究LLM能否提高自身可靠性?
我们今天所见的许多令人惊奇的AI产品,都是由大公司和顶级大学的专家进行的令人惊奇的研究成果。最近,我们也看到了个人和开源社区对流行项目进行的卓越工作,例如,通过创建自动化代理或将大模型移植到算力更弱的硬件上运行。以下是这些论文和项目的集合,供真正想深入研究生成性AI的人参考。(对于研究论文和项目,我们还包括了相关的博客文章或网站的链接(如果有的话),这些内容往往以更高的水平做出了解释。我们也包括了原始出版年份,以便您可以追踪基础研究的发展。)