文件銷毀,食品銷毀,產品銷毀,化妝品銷毀,日化用品銷毀,廣州銷毀公司,過期報廢銷毀
文件銷毀,食品銷毀,產品銷毀,化妝品銷毀,日化用品銷毀,廣州銷毀公司,過期報廢銷毀
發布時間:2024-12-13 11:47
2023年5月,微軟CEO納德拉拋出一個驚人數字,未來全球的開發者數量行將達到10億。
那時候Meta的Llama已經開源4個月,但一些中國的開發者展示,從小以英文語料喂養起來的Llama,對中文天下并不友好。
這未來的“10億”開發者里會有多少中文開發者,這個問題難以預測,但至少早已有755萬人了。
圖源備注:圖片由AI生成,圖片授權服務商Midjourney
755萬人,這是2023年在GitHub上注冊的我國程序員數量,現在的程序員一定會是未來大模型的第一批開發者。
有不少人早已是了。
在浙江省電力設計院工作的陶佳,測評用一個開源的大模型來做基于私有知識庫的檢索問答類應用。他所面對的場景很特制,經常需要從幾十萬甚至上百萬字的文檔中查找內容。陶佳的專業是電力系統控制優化,里面有一些融入了傳統數學方法和AI方法的領域,因此對AI有基本認識,也從去年底就一直在關注著這波大模型的浪潮。
他試了幾款,試下來通義千問是最好的。“精準,而且‘手感’很好,沒有那些特殊古怪的bug”,他說。
要做的事也很簡單。有一些基本的軟硬件基礎后,在家里買個服務器、扔三四塊顯卡上去,下載通義千問、讓它在服務器上運行,再搞個FRP反向代理,從阿里云上買最便宜的30多塊錢一個多月的服務就行,這樣就能通過外網訪問家里的服務器,在單位里也能用通義千問做實驗。
當一個開源生態開始成型,這樣的開發者也一步步變多。
開始閉環的開源生態
陶佳對大模型最深處的希望來自一個終極問題:人類能否成為上帝?
美國的未來學家庫茲韋爾在2023年已經提出過這種或者性。庫茲韋爾的想象里,人類到2030年將大概成為半機器人。通過在腦中植入納米機器人,人類將或將干脆接入互聯網,智力將變得更高,并且將占有幽默、音樂和愛等喜悅的天賦和能力。人類將成為像上帝相似的完美存在。
那一年OpenAI方才建立,但8年前庫茲韋爾的設想放到現在照樣有相似的地方,只不過而今看起來好像在一個機器人(Agent)中擴展意識和人性,這條路好像更近點——也就是AGI。
但哪怕技術是爆炸、是躍遷式的,當下離AGI還很遠。如是說AGI會再造一個新的世界,那目前人類對大模型的期望,仿照是在現實基礎上改造全國。而這首先需要建立在我們知道這個世界是什么模樣的,哪里需要被改造。世界真實的聲音需要被聽到,建立一條通道極端緊要。
大模型時代的開源,意義就在這里。來自不同現實場景,又具有代碼能力的人們需要一個廣場,來讓技術主動和場景對齊,然后具有代表性的產品才或將發現。
這個廣場要供大家對話用,還要有豐盛且價格合適的算力資源,同時也需要足夠充裕的可調用模型來做選擇。開發者要的是這樣一個閉環的開源生態,通義千問的優勢開始出現出來。
算力是關于大模型所有想象力的基礎。通義千問背后的阿里云持有國內最強的智能算力儲備當成基礎設施支持。其智算集群可達最大十萬卡GPU規模,這意味著在阿里云上可以承載多個萬億參數大模型同時在線訓練,為大規模AI集群供應無擁塞通訊的自研RDMA網絡架構和低成本高可靠的高性能存儲CPFS。
而在4月,阿里云在推出通義千問的同時,也發布了史上最大幅度的一次降價,對比上一代主售產品最高可下降40%的同時,還開放了計算、存儲、數據庫、機器學習等核心產品免費試用的機會。這為大宗新涌入的AI開發者提供了測驗和試錯的機會。
在阿里云的算力支撐下,像陶佳一樣的開發者開始帶著“野心”涌入魔搭社區。
去年11月的云棲大會上,阿里云與CCF開源發展委員會聯合推出AI模型社區“魔搭”ModelScope,在社區上線同時獻出了300多個AI模型,全面開源開放,其中超過1/3為中文模型。上線一年后,魔搭社區上的AI開發者數量已經超過280萬人,AI模型超過2300+,下載超過1億+。
隨著大模型的熱潮轉向Agent,魔搭社區在今年9月推出了AI Agent開發框架ModelScope-Agent,并且搭建了一個“打樣產品”ModeScopeGPT,它允許調用社區里眾多AI模型的API,然后自主實行人類布置的任務。這個ModeScopeGPT 的調用量已經超過了40萬次。
除了通義千問之外,Llama2、智譜AI、百川智能甚至最新推出大模型的零一萬物等近百款開源模型此刻都已經進入社區。并且“刻下我國有一半大模型公司跑在阿里云上”,阿里云CTO周靖人在2023年云棲大會上這樣說的時候,魔搭曾經是此刻中國規模最大、用戶最活躍的AI模型開源地。
刻下擴展的參數量
12月1日,阿里云舉行通義千問發表會,開源了通義千問720億參數模型Qwen-72B。在參數量上這是正在我國主流視線中最大的開源大模型,而在能力上,Qwen-72B的性能曾經在測驗中超越開源標桿Llama2-70B。
Qwen-72B的訓練基礎是3T tokens的高品質數據,它采用了更多的參數和訓練數據,實行了全面的性能提升。這個模型延續了通義千問預訓練模型的卓越顯現,在10個權威嘗試中取得開源模型中的最佳成績,并在某些評測中超越了非公開的GPT-3.5和GPT-4。
在英語任務方面,Qwen-72B在MMLU基準測試中獲得開源模型中的最高分。在中文任務中,它在CEVAL、CMMLU、Gaokao等評測中領先,甚至超過了GPT-4。在數學推理領域,Qwen-72B在GSM8K、MATH評測中遠超其他開源模型。同時,在代碼理解任務上,經過HumanEval和MBPP評測,Qwen-72B顯露了顯著的進步,其代碼能力兌現了質的飛躍。
從8月初開始,Qwen-7B和Qwen-7B-Chat兩款開源模型在魔搭社區上線開始,通義千問本身的模型開源開始提上日程。8月25日,以Qwen-7B為基座語言模型更始,支持圖文輸入,具備多模態資訊理解能力大規模視覺語言模型 Qwen-VL開源。
Qwen-VL開源的一個月往后,阿里云在9月25日開源了通義千問百億級的參數模型Qwen-14B及其溝通模型Qwen-14B-Chat。這款模型在性能上開始頭一回看向Llama-70B,擴展前幾款開源的模型,一個多月時間內在開源社區的下載量突破100萬,在性能和可用性的平衡上,70億和140億參數的尺寸也是對開發者最友好的。
但當這個大模型開源生態開始走深,開發者對模型的性能上限有了更高的要求,也就需要更大參數的模型。Qwen-72B開始吸引到一些初創團隊的目光。
“我對72B的模型抱有萬分大的期待,好奇72B在我們領域中的能力極限值。”
顏鑫是華東理工大學X-D Lab(心動實驗室)的成員,X-D Lab實驗室之前的探討方向包羅社會計算與社會智能、群體智能與隱私保護、公共衛生與輿情監測、工業智能與智能系統等方面,大模型展現之后,開始聚焦AI情感計算領域。
基于開源的通義千問基座模型,顏鑫和其他團隊成員陸續開發了心理強健大模型 MindChat(漫談)、醫療強壯大模型 Sunsimiao(孫思邈)、教育/考試大模型 GradChat(錦鯉)三款垂直領域大模型,目下已有超過20萬人次使用過這三款大模型,累計供給了超過100萬次的問答服務。
商討到計算資源的限制以及一些客戶對于私有化部署的需求,顏鑫表示日前團隊在提供問答服務時7B或14B尺寸的大模型是更合適的選擇,但在更開放的學術探討上——例如應該利用聯邦學習算法處置數據——Qwen-72B有著前者不具備的性能特長。
而開源模型參數量的向上思量,未來也有機會推動ModelScope-Agent這樣關于如何接近AGI的暢想更接近現實。
此前在阿里從事大數據業務近7年的秦續業,目下身份是將來速度Xorbits合伙創始人&CEO。Xorbits打造了公司級的分布式推理框架Xinference。經過Xinference,開源模型允許降落在個人用戶和開發者的個人電腦上,企業用戶也許在計算集群上輕松部署并管理模型,享受私有化部署帶來的安全、定制化以及低成本。
秦續業表示,要么外接知識庫做問答應用,通過大模型召回一些數據,放到上下文中進行總結,最后給出有用的回應,那么小尺寸(10B以下)的模型是夠用的。如若需要具備一定的邏輯推理能力的模型,20-30B的中等尺寸模型是比較好的選擇。
“但在Agent可能需要強大推理能力的場景中,70B+的大模型會更有優勢。”
AI Agent是秦續業遠處的企望,但他一樣也是個現實主義者。眼下把模型用起來是更緊要的事情,所以Xorbits已經攻克的焦點,是讓通義千問跑在一臺Mac電腦上。
秦續業覺得這一點能擊中很多人。出于很多開發者都是用Mac電腦,他們直白在本地拉起Qwen系列模型,可以極大提升開發影響。
Qwen種類的全尺寸完善不止一個72B的大參數模型。與Qwen-72B同步,阿里云本次開源了通義千問18億參數模型Qwen-1.8B和通義千問音頻大模型Qwen-Audio,至此,通義千問開源光譜曾經了覆蓋從18億、70億到140億、720億參數的4款大語言模型,以及視覺理解(Qwen-VL)、音頻理解兩款多模態大模型。
大模型的開源生態,這是AI時代最終沒準洶涌而來的一味藥引。周靖人對通義千問的定位是“AI時代最開放的大模型”,現在打點好一切,靜待開發者亮相了。
(投訴)
上一篇:沒有了