但本週,一些以道德為中心的新聞和一項針對該主題的營銷人員有趣的調查引起了我們的注意。
公關 委員會根據該組織現有的道德準則和原則,發布了 關於產生人工智慧的道德使用指南。
使用人工智慧時牢記道德規範
公關委員會是一個行業協會,致力於教育媒體並提供思想領導。它詳細介紹了幾項 需要考慮的人工智慧道德準則 ,包括以下兩篇:
將敏感的客戶資訊輸入生成人工智慧工具時要小心。 例如,請勿使用這些工具建立新產品新聞稿、內部團隊備忘錄、客戶業務計畫或機密分析師報告的初稿。
在創意過程的任何部分使用生成式人工智慧工具時,向客戶揭露。 該建議建議,如果該機構更頻繁地使用人工智慧,則將資訊揭露納入合約中,並針對個人工作進行揭露。
與客戶合作時履行道德義務 至關重要。但即 bc 数据印度 使您與內部團隊合作處理潛在的敏感問題並且僅使用人工智慧來總結內容,也請考慮採用這些指南。
畢竟,您要求 ChatGPT 創建的所有內容都會成為您學習模型的一部分。 (未來,OpenAI 可能會推出一款新產品,讓你阻止你的內容進入通用學習模式。一些專注於行銷 的 AI 工具已經具備此功能。)
但道德無法消除失業恐懼
在其他人工智慧新聞中, Beantown Media Ventures (BMV) 本週分享了其內容行銷調查的結果,不出所料,它有人工智慧成分。
近十分之七的行銷人員相信,像 ChatGPT 這樣的人工智慧寫作工具將在未來五年內取代至少部分作家。另外三分之一的人認為人工智慧平台只會在未來五年內補充作家的工作。 (也值得注意的是,45% 的行銷人員將在 2023 年增加內容行銷預算。)
那麼對於人工智慧你該做什麼呢?
CMI 首席策略顧問Robert Rose 將於下週二(5 月 2 日)在他的專欄中談論圍繞生成式 AI 內容的恐懼。但這裡有一個預覽:他認為「人工智慧不會取代你,但使用人工智慧的人會取代你」的比喻是基於恐懼和誤導的。
然而,羅伯特贊同公關委員會的道德準則。 「他們提供了一個很好的理由讓你停下來問 你想如何 在營運中使用新的人工智慧工具,」他說。
「你想取代那些聰明、有洞察力、能夠處理機密資訊、提供見解並挑戰現狀的人嗎?人工智慧不會這樣做,」羅伯特指出。 「如果你要求人工智慧撰寫有關產品的新聞稿,世界上沒有人工智慧會說,『嘿,也許你不應該這樣做。也許發布一份白皮書會更好。
因此,羅伯特是那些希望人工智慧平台能夠補充而不是取代行銷團隊工作的人之一。
「只要在現場,說故事的人就會增加價值。如果他們不這樣做,你就已經被 解雇了 ,」他說。 “人工智慧不會取代這個價值。”
您喜歡這個內容嗎?訂閱 我們的 時事通訊,透過電子郵件 免費 接收此內容 。