OpenAI Secretly Removes Ban on Using ChatGPT for Military and War

OpenAI Secretly Removes Ban on Using ChatGPT for Military and War
 - OpenAI quietly removed the sentence that expressly prohibited the use of ChatGPT for military purposes from its usage policy. As of January 10, OpenAI's “usage policy” page included a ban on activities that pose a high risk of physical harm, particularly weapons development and military and warfare. 

The new policy retains the command not to “use our services to harm oneself or others” and makes “developing or using weapons” an example, but the blanket ban on military use and warfare is gone. 

These previously unannounced redactions are part of a major rewrite of the policy page, which the company says is intended to make the document clearer and easier to read, and includes many other important language and formatting changes. 

“We aimed to create a universal set of principles that are easy to remember and apply, especially as our tools are now used globally by everyday users who can now also create GPTs,” OpenAI spokesperson Niko Felix said in an email to The Intercept last week. 

“Principles such as ‘do no harm to others’ are broad but easy to understand and relevant in a variety of contexts. "In addition, we specifically mention weapons and harming others as clear examples," he added. 

Felix declined to say whether the more vague harm prohibition covers all military uses, writing, “Any use of our technology, including by the military, to '[develop] or [use] weapons, [injure] others or [destroy] property, or[engaging] in unauthorized activities that violate the security of any service or system,' is not permitted.”

Advertisement
“OpenAI is well aware of the risks and dangers that may arise from the use of their technology and services in military applications,” said Heidy Khlaaf, director of engineering at cybersecurity firm Trail of Bits and an expert in machine learning and autonomous systems security, citing the year's paper. 2022 which he co-authored with OpenAI researchers that specifically flags the risks of military use. 

Khlaaf added that the new policy seemed to prioritize legality over safety. "There is a clear difference between the two policies, as the first policy clearly outlines that weapons development, as well as military and warfare are not permitted, while the second policy emphasizes flexibility and compliance with the law," he said. 

“Developing weapons, and carrying out activities related to military and warfare are legal on many levels. The potential implications for AI security are significant. "Given the many examples of bias and hallucinations contained in Large Language Models (LLM), and their lack of accuracy, their use in military warfare will only result in imprecise and biased operations that are likely to exacerbate civilian losses and casualties," he said. 



OpenAI Diam-diam Hapus Larangan Penggunaan ChatGPT untuk Militer dan Perang
 - OpenAI diam-diam menghapus kalimat yang secara tegas melarang penggunaan ChatGPT untuk tujuan militer dari kebijakan penggunaannya. Hingga tanggal 10 Januari, halaman “kebijakan penggunaan” OpenAI mencakup larangan terhadap aktivitas yang berisiko tinggi menimbulkan bahaya fisik, khususnya pengembangan senjata serta militer dan peperangan.

Kebijakan baru itu mempertahankan perintah untuk tidak “menggunakan layanan kami untuk merugikan diri sendiri atau orang lain” dan menjadikan “mengembangkan atau menggunakan senjata” sebagai contoh, namun larangan menyeluruh terhadap penggunaan militer dan peperangan telah hilang.

Redaksi yang tidak diumumkan sebelumnya ini adalah bagian dari penulisan ulang besar-besaran pada halaman kebijakan, yang menurut perusahaan dimaksudkan untuk membuat dokumen tersebut lebih jelas dan lebih mudah dibaca, dan mencakup banyak perubahan bahasa dan format penting lainnya.

“Kami bertujuan untuk menciptakan serangkaian prinsip universal yang mudah diingat dan diterapkan, terutama karena alat kami kini digunakan secara global oleh pengguna sehari-hari yang kini juga dapat membuat GPT,” kata juru bicara OpenAI Niko Felix melalui email kepada The Intercept pekan lalu.

“Prinsip seperti ‘jangan merugikan orang lain’ bersifat luas namun mudah dipahami dan relevan dalam berbagai konteks. Selain itu, kami secara khusus menyebutkan senjata dan melukai orang lain sebagai contoh yang jelas,” tambahnya.

Felix menolak untuk mengatakan apakah larangan membahayakan yang lebih samar mencakup semua penggunaan militer, dengan menulis, “Setiap penggunaan teknologi kami, termasuk oleh militer, untuk '[mengembangkan] atau [menggunakan] senjata, [melukai] orang lain atau [menghancurkan] properti , atau [terlibat] dalam aktivitas tidak sah yang melanggar keamanan layanan atau sistem apa pun,' tidak diperbolehkan.”

Iklan
“OpenAI sangat menyadari risiko dan bahaya yang mungkin timbul akibat penggunaan teknologi dan layanan mereka dalam aplikasi militer,” kata Heidy Khlaaf, direktur teknik di perusahaan keamanan siber Trail of Bits dan pakar pembelajaran mesin dan keamanan sistem otonom, mengutip makalah tahun 2022yang dia tulis bersama peneliti OpenAI yang secara khusus menandai risiko penggunaan militer.

Khlaaf menambahkan, kebijakan baru tersebut sepertinya lebih mengedepankan legalitas dibandingkan keselamatan. “Ada perbedaan yang jelas antara kedua kebijakan tersebut, karena kebijakan pertama dengan jelas menguraikan bahwa pengembangan senjata, serta militer dan peperangan tidak diperbolehkan, sedangkan kebijakan kedua menekankan fleksibilitas dan kepatuhan terhadap hukum,” katanya.

“Mengembangkan senjata, dan melakukan aktivitas yang berkaitan dengan militer dan peperangan adalah sah dalam berbagai tingkatan. Potensi implikasi terhadap keamanan AI sangatlah signifikan. Mengingat banyaknya contoh bias dan halusinasi yang terdapat dalam Model Bahasa Besar (LLM), dan kurangnya keakuratannya, penggunaannya dalam peperangan militer hanya akan menghasilkan operasi yang tidak tepat dan bias yang cenderung memperburuk kerugian dan korban sipil,” ujarnya.

Post a Comment

Please Select Embedded Mode To Show The Comment System.*

Previous Post Next Post