此外,Midjourney還提供了“-cw”標(biāo)簽,用戶(hù)可以通過(guò)這個(gè)標(biāo)簽來(lái)調(diào)整與指定圖片的相似程度,從而微調(diào)角色的樣貌。
騰訊聯(lián)合清華、港科大推出圖生視頻大模型“Follow Your Click”
3月15日,騰訊和清華大學(xué)、香港科技大學(xué)聯(lián)合推出全新圖生視頻模型“Follow-Your-Click“,基于輸入模型的圖片,只需點(diǎn)擊對(duì)應(yīng)區(qū)域,加上少量提示詞,就可以讓圖片中原本靜態(tài)的區(qū)域動(dòng)起來(lái),一鍵轉(zhuǎn)換成視頻。
據(jù)了解,本聯(lián)合項(xiàng)目組中的騰訊混元大模型團(tuán)隊(duì),正在持續(xù)研究和探索多模態(tài)技術(shù),擁有行業(yè)領(lǐng)先的視頻生成能力。此前,騰訊混元大模型作為技術(shù)合作伙伴,支持《人民日?qǐng)?bào)》打造原創(chuàng)視頻《江山如此多嬌》,生成中國(guó)大美河山的精美視頻片段,展示出了較強(qiáng)的內(nèi)容理解、邏輯推理和畫(huà)面生成能力。
生物模型
前Google DeepMind科學(xué)家聯(lián)手創(chuàng)建Biooptimus,構(gòu)建首個(gè)通用生物學(xué)大模型
2月20日,總部位于巴黎的Biooptimus在獲得3500萬(wàn)美元的種子輪融資,其使命是建立第一個(gè)用于生物學(xué)的通用人工智能基礎(chǔ)模型。這一新的開(kāi)放科學(xué)模型將把不同規(guī)模的生物學(xué)與生成人工智能連接起來(lái)——從分子到細(xì)胞、組織和整個(gè)生物體。
Bioptimus聯(lián)合了一個(gè)由Google DeepMind alumni和Owkin科學(xué)家組成的團(tuán)隊(duì),其中AI生物技術(shù)初創(chuàng)公司Owkin本身就是一家法國(guó)獨(dú)角獸,他們將利用AWS計(jì)算和Owkin的數(shù)據(jù)生成功能,并訪問(wèn)來(lái)自全球領(lǐng)先學(xué)術(shù)醫(yī)院的多模態(tài)患者數(shù)據(jù)。
AI應(yīng)用
具身智能
英偉達(dá)成立具身智能實(shí)驗(yàn)室GEAR
2月24日,英偉達(dá)宣布成立通用具身智能體研究實(shí)驗(yàn)室GEAR,標(biāo)志著英偉達(dá)正式入局具身智能領(lǐng)域的研究,加速人工智能具身化進(jìn)程。
機(jī)英偉達(dá)GEAR實(shí)驗(yàn)室的聯(lián)合創(chuàng)始人Jim Fan博士在X平臺(tái)上表示:“我們相信,在未來(lái),每一臺(tái)移動(dòng)的機(jī)器都將是自主的,機(jī)器人和模擬智能體將像iPhone一樣無(wú)處不在。我們正在構(gòu)建基礎(chǔ)智能體:一個(gè)具有通用能力的AI,可以在許多虛擬和現(xiàn)實(shí)的世界中學(xué)習(xí)如何熟練地行動(dòng)。2024年將是屬于機(jī)器人、游戲AI和模擬的一年?!?
Jim Fan還補(bǔ)充道:“我們有足夠的資金一次性解決機(jī)器人基礎(chǔ)模型、游戲基礎(chǔ)模型和生成式模擬。我們團(tuán)隊(duì)可能是全球最有錢(qián)的具身智能實(shí)驗(yàn)室?!?
特斯拉人形機(jī)器人更新,步態(tài)達(dá)到最快
2月25日,特斯拉人形機(jī)器人Optimus發(fā)布更新,達(dá)到了有史以來(lái)最快的步態(tài),速度約為 0.6m/s,比去年12月速度提升了30%以上。
Optimus改善了前庭系統(tǒng)、足部軌跡和地面接觸邏輯,升級(jí)了運(yùn)動(dòng)規(guī)劃器,并減少了機(jī)器人的循環(huán)延遲。Optimus整體上更加穩(wěn)定、更加自信——即使在轉(zhuǎn)彎時(shí)也是如此。此外,還添加了輕微的軀干和手臂擺動(dòng)。
Figure AI宣布獲得6.75億美元融資,估值達(dá)到26億美元
2月29日,具身智能公司Figure宣布獲得6.75億美元融資,估值達(dá)到26億美元。投資方包括微軟、OpenAI創(chuàng)業(yè)基金、英偉達(dá)、杰夫·貝索斯(通過(guò)Bezos Expeditions)、Parkway Venture Capital、英特爾、Align Ventures。
Figure AI還與OpenAI簽署了合作協(xié)議,為人形機(jī)器人開(kāi)發(fā)下一代人工智能模型。Figure將利用Microsoft Azure進(jìn)行人工智能基礎(chǔ)設(shè)施、培訓(xùn)和存儲(chǔ)。
3月13日,F(xiàn)igure AI的第一款產(chǎn)品Figure 01發(fā)布Demo視頻,能夠?qū)崿F(xiàn)端到端的機(jī)器人指令操作。其中,OpenAI模型提供高級(jí)視覺(jué)和語(yǔ)言智能,圖形神經(jīng)網(wǎng)絡(luò)提供快速、低級(jí)、靈巧的機(jī)器人動(dòng)作。
伯克利團(tuán)隊(duì)發(fā)布具身智能論文,用訓(xùn)練GPT的方法訓(xùn)練人形機(jī)器人
3月3日,伯克利團(tuán)隊(duì)發(fā)布論文,名為《Humanoid Locomotion as Next Token Prediction》,論文的核心思想,就是把OpenAI訓(xùn)練ChatGPT時(shí)所用到的“預(yù)測(cè)下一個(gè)token”的思路,用在人形機(jī)器人的運(yùn)動(dòng)控制中。
該模型是一個(gè)通過(guò)自回歸預(yù)測(cè)訓(xùn)練的causal transformer(因果轉(zhuǎn)換器)。