有影響力的廣告行業監管機構正式建議Microsoft修改其針對Copilot AI Suite的營銷,挑戰了這家技術巨頭的主要生產力主張,並批評其龐大的品牌與消費者感到困惑。更好的商業局國家廣告部(NAD)得出的結論是,Microsoft的一些令人印象深刻的統計數據是基於用戶對更有生產力而不是客觀證據的看法。

NAD的官方決定於6月9日發布,審查聲稱多達75%的用戶報告對Copilot的生產力更高。監管機構發現,基礎研究沒有充分支持這種客觀主張。此外,NAD確定,由於在許多不同產品中普遍使用“副本”名稱,消費者不一定會了解物質局限性和功能差異,尤其是在諸如商業聊天之類的功能中。

,Microsoft表示,它不同意NAD的一些結論,公司已確認,它會遵循其建議,以遵守其建議。該決定強迫如何傳達企業AI的價值並隨著對副本生態系統的信任而來的一系列高調安全漏洞,這些漏洞是AI功能的核心。

A History of Confusing Brands

The watchdog’s finding of consumer confusion will come as little surprise to those who have followed the product’s convoluted命名歷史。微軟以具有特徵性的複雜方式將其AI工具重新命名。 AI助手現在被稱為Microsoft 365 Copilot聊天開始為Bing Chat Enterprise的生活,然後被重新命名為Copilot,與該公司的其他AI工具造成了重大重疊。

這種糾結的品牌策略是在其生態系統中嵌入AI的更大推動力的一部分,並鼓勵其基於高級的基於基於的企業,訂閱的企業。 However, this approach has sown confusion, with user frustration earlier in 2025 over a new Copilot app icon that was nearly illegible on some displays.

The NAD’s review formalizes these anecdotal complaints, concluding that the universal branding makes it difficult for users to discern what each tool actually does and recommending clearer disclosures about their capabilities.

The Productivity Promise vs. Perceived Gains

Microsoft向企業推銷的核心支柱一直是副銅對員工效率的變革影響。 The company has backed this with commissioned research, including a Forrester study detailed on a Microsoft博客,暗示副業可以為中小型企業產生132%至353%的投資回報率(ROI)。 Forrester

但是,NAD的獨立審查對這些收益的量化方式提出了疑問。該部門確定,儘管用戶感覺更有生產力,但這種主觀反饋並不能代替客觀測量。該報告得出結論,該研究僅證明了“生產力的感知”,因此並不是“適合有爭議的客觀主張。 ”

這種區別對於評估企業範圍內AI部署的顯著成本的企業至關重要。 The recommendation to modify these claims forces a more transparent conversation about the return on investment for AI tools, shifting the focus from perceived gains to demonstrable results.

Emerging Security Flaws and Trust Concerns

As Microsoft navigates scrutiny over its advertising, a more alarming narrative is unfolding around the platform’s security.關於其安全性的具體擔憂,圍繞副柯洛特營銷主張的問題正在放大。 2025年5月,關於SharePoint的Copilot嚴重漏洞的報告顯示,可以操縱AI代理商以繞過安全控制和訪問私人信息。

此之後,隨後披露了Microsoft 365 Copilot中關鍵的“ Echoleak”脆弱性。根據安全公司AIM Security的說法,該缺陷是一個零單擊的利用,允許攻擊者通過一個專門精心設計的電子郵件欺騙AI洩漏敏感的公司數據。

研究人員稱,研究人員稱這一新的漏洞利用了“ LLM範圍違規”,其中AI被操縱以誤導其授權訪問權限。 The attack chain was sophisticated enough to bypass several of Microsoft’s security guardrails, including its Cross-Prompt Injection Attack (XPIA) classifiers.

Microsoft, which assigned the flaw the 標識符CVE-2025-32711 確認這是“ M365 Copilot中的AI命令注入的一種形式,允許未經授權的攻擊者通過網絡披露信息”,此後在2025年6月的2025年周二發行中對此問題進行了修補。 href=“ https://www.gartner.com/en/newsroom/press-releases/2024-10-22-gartner-unveils-top-predions-for-redictions-for-it-it-red–iit-organizations-and-rganizations-and-2025–2025-and-beyond tart企業違規將追溯到外部和惡意內部參與者的AI代理商濫用。 ”

這種安全背景為Microsoft創造了一個具有挑戰性的敘述。 Even as the company champions an ambitious “Age of AI Agents”at events like its Build 2025 conference and rolls out advanced governance tools like the Copilot Control System (CCS) to provide IT departments with enhanced tools for managing this expanding AI ecosystem, the discovery of fundamental flaws like EchoLeak suggests the race to innovate is creating new and complex security challenges that traditional methods are not yet equipped to handle.

令人困惑的品牌,挑戰生產力索賠和關鍵安全缺陷的融合為微軟的旗艦AI產品帶來了多方面的信任危機。在公司正在採取步驟解決每個問題的同時,從澄清廣告到修補漏洞,這些事件統稱在企業規模上統治著建造,營銷和確保強大的AI代理的巨大困難。 

Categories: IT Info