Keamanan model AI sangat penting bagi perusahaan aplikasi AI dan pengguna serta pelanggan yang menggunakan aplikasi AI. Untuk perusahaan AI, sambil melindungi keamanan model AI, ada baiknya juga memperhatikan kemampuan untuk melindungi data dan algoritma asli dari kebocoran sambil tidak meningkatkan biaya kerja yang tidak perlu.
Sebuah perusahaan bernama HiddenLayer telah membangun platform keamanan komprehensif yang menyediakan keamanan AI plug-and-play tanpa menambahkan kompleksitas yang tidak perlu pada tingkat model AI atau mengakses data mentah dan algoritma.
Baru-baru ini, perusahaan menerima putaran Seri A senilai $ 50 juta yang dipimpin oleh M12 dan Moore Strategic Ventures, dengan partisipasi Booz Allen Ventures, IBM Ventures, Capital One Ventures dan Ten Eleven Ventures (yang memimpin putaran benih), yang merupakan putaran pendanaan Seri A terbesar dalam keamanan AI hingga saat ini.
HiddenLayer telah membantu melindungi model AI/ML yang digunakan oleh beberapa perusahaan Fortune 100 di berbagai bidang seperti keuangan dan keamanan siber.
Ini juga telah membentuk kemitraan strategis dengan Intel dan Databricks, menerima penghargaan seperti RSAC's Most Innovative Startup dan SC Media's Most Promising Early Stage Startup. Perusahaan telah hampir empat kali lipat tenaga kerjanya pada tahun lalu dan berencana untuk meningkatkan tenaga kerjanya dari 50 menjadi 90 pada akhir tahun ini, berinvestasi lebih lanjut dalam penelitian dan pengembangan.
Setelah menghadapi serangan terhadap AI, pengusaha serial melihat peluang
Menurut Gartner, dua dari lima organisasi di semua serangan siber AI pada tahun 2022 mengalami pelanggaran privasi AI atau insiden keamanan, dan seperempat dari serangan itu berbahaya.
Badan keamanan siber Inggris, National Cyber Security Center, juga memperingatkan bahwa "penyerang menyerang chatbot model bahasa besar seperti ChatGPT untuk mendapatkan akses ke informasi rahasia, menghasilkan konten ofensif dan" memicu konsekuensi yang tidak diinginkan. "
Dalam sebuah studi Forrester yang ditugaskan oleh HiddenLayer, 86 persen orang "sangat khawatir atau khawatir" tentang keamanan model pembelajaran mesin organisasi mereka.
Mayoritas perusahaan yang merespons mengatakan bahwa mereka saat ini mengandalkan proses manual untuk melawan ancaman model AI, dan 80% responden berharap untuk berinvestasi dalam solusi yang mengelola integritas dan keamanan model ML dalam 12 bulan ke depan.
Keamanan siber sangat teknis dan khusus dibandingkan dengan bidang lain, dengan pasar keamanan siber global diperkirakan akan mencapai $ 403 miliar pada tahun 2027, tumbuh pada CAGR sebesar 12,5% dari tahun 2020 hingga 2027, menurut penelitian sebelumnya oleh majalah Fortune.
HiddenLayer didirikan bersama oleh Christopher Sestito (CEO), Tanner Burns (Chief Scientist) dan James Ballard (CIO). Mereka berada di perusahaan mereka sebelumnya, Cylance, sebuah startup keamanan yang diakuisisi oleh BlackBerry. Ide itu muncul setelah serangan cyber pada model AI.
Chris Sestito, CEO dan salah satu pendiri HiddenLayer, mengenang, "Setelah model pembelajaran mesin yang kami amankan diserang langsung melalui produk kami, kami memimpin upaya penyelamatan dan menyadari bahwa ini akan menjadi masalah besar bagi organisasi mana pun yang menerapkan model pembelajaran mesin dalam produk kami. Kami memutuskan untuk membuat HiddenLayer untuk mendidik bisnis tentang ancaman signifikan ini dan membantu mereka bertahan dari serangan. "
Sestito memimpin penelitian ancaman di Cylance, Ballard adalah kepala tim kurasi data Cylance, dan Burns adalah peneliti ancaman.
Chris Sestito mengomentari peluang pasar, "Kami tahu bahwa hampir setiap bisnis sekarang menggunakan AI dalam berbagai bentuk, tetapi kami juga tahu bahwa tidak ada teknologi lain yang mencapai adopsi luas seperti itu tanpa keamanan. Kami berkomitmen untuk menciptakan solusi keamanan yang paling lancar di pasar bagi pelanggan yang memenuhi kebutuhan yang belum terpenuhi ini. "
Mengomentari teknologi, Chris Sestito mengatakan, "Banyak ilmuwan data mengandalkan model pembelajaran mesin yang telah dilatih sebelumnya, sumber terbuka, atau eksklusif untuk mengurangi waktu analisis dan menyederhanakan pengujian, kemudian memperoleh wawasan dari kumpulan data yang kompleks. Menggunakan model sumber terbuka pra-terlatih yang tersedia untuk umum berpotensi memaparkan organisasi untuk mentransfer serangan pembelajaran dari model yang dirusak dengan yang tersedia untuk umum.
Platform kami menyediakan alat untuk melindungi model AI dari serangan permusuhan, kerentanan, dan injeksi kode berbahaya. Ini memantau input dan output sistem AI untuk menguji integritas model sebelum penyebaran. Ini menggunakan teknik untuk mengamati hanya input model dan vektor (atau representasi matematis) dari output yang dihasilkan oleh mereka, tanpa memerlukan akses ke model milik mereka. "
Todd Graham, Managing Partner M12, mengatakan: "Terinspirasi oleh pengalaman mereka sendiri dengan serangan AI yang bermusuhan, para pendiri HiddenLayer telah membangun platform yang penting untuk bisnis apa pun yang menggunakan teknologi AI dan ML.
Pengalaman langsung mereka dengan serangan-serangan ini, dikombinasikan dengan visi dan pendekatan baru mereka, menjadikan perusahaan solusi masuk untuk mengamankan model-model ini. Dari pertemuan pertama dengan para pendiri, kami tahu ini adalah ide besar di ruang keamanan dan ingin membantu mereka berkembang. "
Bangun platform MLSec yang secara komprehensif melindungi keamanan AI
Produk unggulan HiddenLayer, Platform Keamanan untuk Mendeteksi dan Mencegah Serangan Siber pada Sistem Berbasis Pembelajaran Mesin (MLSec), adalah solusi MLDR (Machine Learning Detection and Response) pertama di industri yang melindungi perusahaan dan pelanggan mereka dari vektor serangan yang muncul.
Platform MLSec terdiri dari HiddenLayer MLDR, ModelScanner, dan Security Audit Reporting.
Platform MLSec HiddenLayer hadir dengan dasbor sederhana namun kuat yang memungkinkan manajer keamanan untuk melihat sekilas apakah model ML / AI perusahaan mereka dalam keadaan aman. Ini juga secara otomatis memprioritaskan masalah keamanan dan peringatan berdasarkan tingkat keparahannya, dan menyimpan data untuk kepatuhan, audit, dan pelaporan yang mungkin harus dilakukan perusahaan.
Solusi MLDR-nya mengambil pendekatan berbasis pembelajaran mesin untuk menganalisis miliaran interaksi model setiap menit untuk mengidentifikasi aktivitas berbahaya tanpa memiliki akses ke atau pengetahuan sebelumnya tentang model ML pengguna atau data pelatihan sensitif. Ia mampu mendeteksi dan menanggapi serangan terhadap model ML, melindungi kekayaan intelektual dan rahasia dagang dari pencurian atau gangguan, memastikan bahwa pengguna tidak diserang.
HiddenLayer juga menawarkan layanan konsultasi untuk tim ahli pembelajaran mesin permusuhan (AML) yang dapat melakukan penilaian ancaman, melatih keamanan siber pelanggan dan staf DevOps, dan melakukan latihan "tim merah" untuk memastikan bahwa pertahanan pelanggan berfungsi sebagaimana dimaksud.
Jenis serangan yang dapat dilindungi oleh platform MLSec HiddenLayer
Inferensi/ekstraksi: Serangan ekstraksi melibatkan penyerang yang memanipulasi input model, menganalisis output, dan menyimpulkan batas keputusan untuk merekonstruksi data pelatihan, mengekstrak parameter model, atau melakukan pencurian model dengan melatih model alternatif yang mendekati target.
Mencuri model pembelajaran mesin: Penyerang mencuri buah dari kerangka kerja pembelajaran mesin yang mahal.
Ekstraksi data pelatihan: Penyerang dapat melakukan serangan inferensi anggota hanya dengan mengamati outputnya tanpa mengakses parameter model pembelajaran mesin. Ketika model target dilatih tentang informasi sensitif, kesimpulan anggota dapat meningkatkan masalah keamanan dan privasi.
Keracunan data: Keracunan terjadi ketika penyerang menyuntikkan data baru yang dimodifikasi secara khusus ke dalam set pelatihan. Ini menipu atau menumbangkan model pembelajaran mesin untuk memberikan hasil yang tidak akurat, bias, atau berbahaya.
Injeksi model: Injeksi model adalah teknik yang bergantung pada modifikasi model pembelajaran mesin dengan memasukkan modul berbahaya yang memperkenalkan beberapa perilaku rahasia, berbahaya, atau tidak diinginkan.
Pembajakan model: Serangan ini dapat menyuntikkan kode berbahaya ke dalam model PyTorch yang ada, yang mengeksfiltrasi semua file di direktori saat ini ke server jarak jauh.
HiddenLayer menyediakan layanan spesifik berikut
Pemodelan Ancaman: Menilai keseluruhan lingkungan AI/ML dan risiko aset melalui wawancara penemuan dan diskusi berbasis skenario.
Penilaian Risiko ML: Lakukan analisis terperinci tentang siklus hidup operasi AI pelanggan dan telusuri model AI paling penting pelanggan untuk menentukan risiko bagi organisasi investasi AI/ML saat ini, serta upaya dan/atau kontrol yang diperlukan untuk meningkatkan.
Pelatihan ahli: Menyediakan pelatihan sehari penuh untuk ilmu data dan tim keamanan untuk membantu mereka mendapatkan perlindungan terhadap serangan dan ancaman terhadap AI ini.
Penilaian Tim Merah: Tim Adversarial Machine Learning Research (AMLR) akan mensimulasikan serangan penyerang untuk menilai pertahanan yang ada dan menambal kerentanan.
Pemindaian Model AI/ML: Gunakan pemindai integritas model HiddenLayer untuk menguji dan memvalidasi model AI/ML yang ada terhadap ancaman (misalnya malware) dan gangguan.
Layanan Implementasi Deteksi dan Respons MLDR (MLDR) :*Secara ahli menerapkan dan mengintegrasikan produk MLDR HiddenLayer ke dalam lingkungan AI/ML, memberi tim ilmu data dan keamanan kemampuan dan visibilitas yang mereka butuhkan untuk mencegah serangan, meningkatkan waktu respons, dan memaksimalkan efektivitas model.
Kerja sama dengan raksasa untuk memperkuat konstruksi ekologis
Selain membangun produk dan platform, HiddenLayer juga memiliki mitra yang kuat, Databricks memiliki kemitraan untuk membuat platform MLSec tersedia bagi pengguna perusahaan yang menyebarkan model AI ke danau data Databricks. Ini membangun keamanan ke AI dari tingkat danau data.
Melalui kerja sama strategis dengan Intel, komputasi rahasia pada pemindai model pembelajaran mesin Intel SGX dan HiddenLayer digabungkan untuk memberikan solusi keamanan AI terintegrasi perangkat keras dan perangkat lunak.
Kedua kerja sama strategis ini telah membuat seluruh ekosistem HiddenLayer lebih lengkap, dan juga telah memenangkan hati pelanggan, yang telah memperoleh beberapa pelanggan besar di bidang keuangan dan pemerintahan.
AI telah memasuki tahap praktis, dan peluang kewirausahaan AI yang aman telah muncul
Keamanan untuk AI, terutama di tingkat model, sudah menjadi kebutuhan yang pasti, dan Protect AI, yang berspesialisasi dalam keamanan model AI, sebelumnya telah menerima putaran pendanaan Seri A senilai $ 35 juta yang dipimpin oleh Evolution Equity Partners dan Salesforce Ventures.
Menurut Sestito, pendiri HiddenLayer, seiring pertumbuhan pasar AI, pasar keamanan AI akan tumbuh secara bersamaan, dan selain Protect AI dan HiddenLayer, perusahaan seperti Robust Intelligence, CalypsoAI, Halcyon dan Troj.ai juga bekerja di bidang keamanan AI.
Misalnya, Ten Eleven Ventures, investor awal di HiddenLayer, juga berinvestasi dalam putaran benih $ 20 juta dari Halcyon, sebuah perusahaan yang berfokus pada alat pertahanan ransomware AI yang membantu pengguna perangkat lunak AI mencegah serangan dan pulih dengan cepat dari mereka.
Ketika gelombang AI ini bergerak dari tahap hype konsep ke tahap aplikasi yang sebenarnya, dari kewirausahaan model besar ke kewirausahaan aplikasi AI, keamanan AI menjadi semakin penting. Baik itu untuk memastikan keamanan model AI atau melindungi keamanan aplikasi AI, pengembangan keamanan AI dapat lebih memperdalam penetrasi AI di sisi ToC dan sisi perusahaan.
Sudah ada sejumlah besar startup keamanan AI di luar negeri, dan di pasar Cina, permintaan yang sama juga ada, dan kami berharap pengusaha lokal yang luar biasa untuk bergerak menuju bidang kewirausahaan yang penting ini.
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
Untuk sepenuhnya melindungi keamanan AI, HiddenLayer menerima $ 50 juta dalam pembiayaan Seri A
Sumber asli: Alpha Commune
Keamanan model AI sangat penting bagi perusahaan aplikasi AI dan pengguna serta pelanggan yang menggunakan aplikasi AI. Untuk perusahaan AI, sambil melindungi keamanan model AI, ada baiknya juga memperhatikan kemampuan untuk melindungi data dan algoritma asli dari kebocoran sambil tidak meningkatkan biaya kerja yang tidak perlu.
Sebuah perusahaan bernama HiddenLayer telah membangun platform keamanan komprehensif yang menyediakan keamanan AI plug-and-play tanpa menambahkan kompleksitas yang tidak perlu pada tingkat model AI atau mengakses data mentah dan algoritma.
Baru-baru ini, perusahaan menerima putaran Seri A senilai $ 50 juta yang dipimpin oleh M12 dan Moore Strategic Ventures, dengan partisipasi Booz Allen Ventures, IBM Ventures, Capital One Ventures dan Ten Eleven Ventures (yang memimpin putaran benih), yang merupakan putaran pendanaan Seri A terbesar dalam keamanan AI hingga saat ini.
HiddenLayer telah membantu melindungi model AI/ML yang digunakan oleh beberapa perusahaan Fortune 100 di berbagai bidang seperti keuangan dan keamanan siber.
Ini juga telah membentuk kemitraan strategis dengan Intel dan Databricks, menerima penghargaan seperti RSAC's Most Innovative Startup dan SC Media's Most Promising Early Stage Startup. Perusahaan telah hampir empat kali lipat tenaga kerjanya pada tahun lalu dan berencana untuk meningkatkan tenaga kerjanya dari 50 menjadi 90 pada akhir tahun ini, berinvestasi lebih lanjut dalam penelitian dan pengembangan.
Setelah menghadapi serangan terhadap AI, pengusaha serial melihat peluang
Menurut Gartner, dua dari lima organisasi di semua serangan siber AI pada tahun 2022 mengalami pelanggaran privasi AI atau insiden keamanan, dan seperempat dari serangan itu berbahaya.
Badan keamanan siber Inggris, National Cyber Security Center, juga memperingatkan bahwa "penyerang menyerang chatbot model bahasa besar seperti ChatGPT untuk mendapatkan akses ke informasi rahasia, menghasilkan konten ofensif dan" memicu konsekuensi yang tidak diinginkan. "
Dalam sebuah studi Forrester yang ditugaskan oleh HiddenLayer, 86 persen orang "sangat khawatir atau khawatir" tentang keamanan model pembelajaran mesin organisasi mereka.
Mayoritas perusahaan yang merespons mengatakan bahwa mereka saat ini mengandalkan proses manual untuk melawan ancaman model AI, dan 80% responden berharap untuk berinvestasi dalam solusi yang mengelola integritas dan keamanan model ML dalam 12 bulan ke depan.
Keamanan siber sangat teknis dan khusus dibandingkan dengan bidang lain, dengan pasar keamanan siber global diperkirakan akan mencapai $ 403 miliar pada tahun 2027, tumbuh pada CAGR sebesar 12,5% dari tahun 2020 hingga 2027, menurut penelitian sebelumnya oleh majalah Fortune.
Chris Sestito, CEO dan salah satu pendiri HiddenLayer, mengenang, "Setelah model pembelajaran mesin yang kami amankan diserang langsung melalui produk kami, kami memimpin upaya penyelamatan dan menyadari bahwa ini akan menjadi masalah besar bagi organisasi mana pun yang menerapkan model pembelajaran mesin dalam produk kami. Kami memutuskan untuk membuat HiddenLayer untuk mendidik bisnis tentang ancaman signifikan ini dan membantu mereka bertahan dari serangan. "
Sestito memimpin penelitian ancaman di Cylance, Ballard adalah kepala tim kurasi data Cylance, dan Burns adalah peneliti ancaman.
Chris Sestito mengomentari peluang pasar, "Kami tahu bahwa hampir setiap bisnis sekarang menggunakan AI dalam berbagai bentuk, tetapi kami juga tahu bahwa tidak ada teknologi lain yang mencapai adopsi luas seperti itu tanpa keamanan. Kami berkomitmen untuk menciptakan solusi keamanan yang paling lancar di pasar bagi pelanggan yang memenuhi kebutuhan yang belum terpenuhi ini. "
Mengomentari teknologi, Chris Sestito mengatakan, "Banyak ilmuwan data mengandalkan model pembelajaran mesin yang telah dilatih sebelumnya, sumber terbuka, atau eksklusif untuk mengurangi waktu analisis dan menyederhanakan pengujian, kemudian memperoleh wawasan dari kumpulan data yang kompleks. Menggunakan model sumber terbuka pra-terlatih yang tersedia untuk umum berpotensi memaparkan organisasi untuk mentransfer serangan pembelajaran dari model yang dirusak dengan yang tersedia untuk umum.
Platform kami menyediakan alat untuk melindungi model AI dari serangan permusuhan, kerentanan, dan injeksi kode berbahaya. Ini memantau input dan output sistem AI untuk menguji integritas model sebelum penyebaran. Ini menggunakan teknik untuk mengamati hanya input model dan vektor (atau representasi matematis) dari output yang dihasilkan oleh mereka, tanpa memerlukan akses ke model milik mereka. "
Todd Graham, Managing Partner M12, mengatakan: "Terinspirasi oleh pengalaman mereka sendiri dengan serangan AI yang bermusuhan, para pendiri HiddenLayer telah membangun platform yang penting untuk bisnis apa pun yang menggunakan teknologi AI dan ML.
Pengalaman langsung mereka dengan serangan-serangan ini, dikombinasikan dengan visi dan pendekatan baru mereka, menjadikan perusahaan solusi masuk untuk mengamankan model-model ini. Dari pertemuan pertama dengan para pendiri, kami tahu ini adalah ide besar di ruang keamanan dan ingin membantu mereka berkembang. "
Bangun platform MLSec yang secara komprehensif melindungi keamanan AI
Produk unggulan HiddenLayer, Platform Keamanan untuk Mendeteksi dan Mencegah Serangan Siber pada Sistem Berbasis Pembelajaran Mesin (MLSec), adalah solusi MLDR (Machine Learning Detection and Response) pertama di industri yang melindungi perusahaan dan pelanggan mereka dari vektor serangan yang muncul.
Platform MLSec terdiri dari HiddenLayer MLDR, ModelScanner, dan Security Audit Reporting.
Solusi MLDR-nya mengambil pendekatan berbasis pembelajaran mesin untuk menganalisis miliaran interaksi model setiap menit untuk mengidentifikasi aktivitas berbahaya tanpa memiliki akses ke atau pengetahuan sebelumnya tentang model ML pengguna atau data pelatihan sensitif. Ia mampu mendeteksi dan menanggapi serangan terhadap model ML, melindungi kekayaan intelektual dan rahasia dagang dari pencurian atau gangguan, memastikan bahwa pengguna tidak diserang.
HiddenLayer juga menawarkan layanan konsultasi untuk tim ahli pembelajaran mesin permusuhan (AML) yang dapat melakukan penilaian ancaman, melatih keamanan siber pelanggan dan staf DevOps, dan melakukan latihan "tim merah" untuk memastikan bahwa pertahanan pelanggan berfungsi sebagaimana dimaksud.
Jenis serangan yang dapat dilindungi oleh platform MLSec HiddenLayer
Inferensi/ekstraksi: Serangan ekstraksi melibatkan penyerang yang memanipulasi input model, menganalisis output, dan menyimpulkan batas keputusan untuk merekonstruksi data pelatihan, mengekstrak parameter model, atau melakukan pencurian model dengan melatih model alternatif yang mendekati target.
Mencuri model pembelajaran mesin: Penyerang mencuri buah dari kerangka kerja pembelajaran mesin yang mahal.
Ekstraksi data pelatihan: Penyerang dapat melakukan serangan inferensi anggota hanya dengan mengamati outputnya tanpa mengakses parameter model pembelajaran mesin. Ketika model target dilatih tentang informasi sensitif, kesimpulan anggota dapat meningkatkan masalah keamanan dan privasi.
Keracunan data: Keracunan terjadi ketika penyerang menyuntikkan data baru yang dimodifikasi secara khusus ke dalam set pelatihan. Ini menipu atau menumbangkan model pembelajaran mesin untuk memberikan hasil yang tidak akurat, bias, atau berbahaya.
Injeksi model: Injeksi model adalah teknik yang bergantung pada modifikasi model pembelajaran mesin dengan memasukkan modul berbahaya yang memperkenalkan beberapa perilaku rahasia, berbahaya, atau tidak diinginkan.
Pembajakan model: Serangan ini dapat menyuntikkan kode berbahaya ke dalam model PyTorch yang ada, yang mengeksfiltrasi semua file di direktori saat ini ke server jarak jauh.
HiddenLayer menyediakan layanan spesifik berikut
Pemodelan Ancaman: Menilai keseluruhan lingkungan AI/ML dan risiko aset melalui wawancara penemuan dan diskusi berbasis skenario.
Penilaian Risiko ML: Lakukan analisis terperinci tentang siklus hidup operasi AI pelanggan dan telusuri model AI paling penting pelanggan untuk menentukan risiko bagi organisasi investasi AI/ML saat ini, serta upaya dan/atau kontrol yang diperlukan untuk meningkatkan.
Pelatihan ahli: Menyediakan pelatihan sehari penuh untuk ilmu data dan tim keamanan untuk membantu mereka mendapatkan perlindungan terhadap serangan dan ancaman terhadap AI ini.
Penilaian Tim Merah: Tim Adversarial Machine Learning Research (AMLR) akan mensimulasikan serangan penyerang untuk menilai pertahanan yang ada dan menambal kerentanan.
Pemindaian Model AI/ML: Gunakan pemindai integritas model HiddenLayer untuk menguji dan memvalidasi model AI/ML yang ada terhadap ancaman (misalnya malware) dan gangguan.
Layanan Implementasi Deteksi dan Respons MLDR (MLDR) :*Secara ahli menerapkan dan mengintegrasikan produk MLDR HiddenLayer ke dalam lingkungan AI/ML, memberi tim ilmu data dan keamanan kemampuan dan visibilitas yang mereka butuhkan untuk mencegah serangan, meningkatkan waktu respons, dan memaksimalkan efektivitas model.
Kerja sama dengan raksasa untuk memperkuat konstruksi ekologis
Selain membangun produk dan platform, HiddenLayer juga memiliki mitra yang kuat, Databricks memiliki kemitraan untuk membuat platform MLSec tersedia bagi pengguna perusahaan yang menyebarkan model AI ke danau data Databricks. Ini membangun keamanan ke AI dari tingkat danau data.
Kedua kerja sama strategis ini telah membuat seluruh ekosistem HiddenLayer lebih lengkap, dan juga telah memenangkan hati pelanggan, yang telah memperoleh beberapa pelanggan besar di bidang keuangan dan pemerintahan.
AI telah memasuki tahap praktis, dan peluang kewirausahaan AI yang aman telah muncul
Keamanan untuk AI, terutama di tingkat model, sudah menjadi kebutuhan yang pasti, dan Protect AI, yang berspesialisasi dalam keamanan model AI, sebelumnya telah menerima putaran pendanaan Seri A senilai $ 35 juta yang dipimpin oleh Evolution Equity Partners dan Salesforce Ventures.
Menurut Sestito, pendiri HiddenLayer, seiring pertumbuhan pasar AI, pasar keamanan AI akan tumbuh secara bersamaan, dan selain Protect AI dan HiddenLayer, perusahaan seperti Robust Intelligence, CalypsoAI, Halcyon dan Troj.ai juga bekerja di bidang keamanan AI.
Misalnya, Ten Eleven Ventures, investor awal di HiddenLayer, juga berinvestasi dalam putaran benih $ 20 juta dari Halcyon, sebuah perusahaan yang berfokus pada alat pertahanan ransomware AI yang membantu pengguna perangkat lunak AI mencegah serangan dan pulih dengan cepat dari mereka.
Ketika gelombang AI ini bergerak dari tahap hype konsep ke tahap aplikasi yang sebenarnya, dari kewirausahaan model besar ke kewirausahaan aplikasi AI, keamanan AI menjadi semakin penting. Baik itu untuk memastikan keamanan model AI atau melindungi keamanan aplikasi AI, pengembangan keamanan AI dapat lebih memperdalam penetrasi AI di sisi ToC dan sisi perusahaan.
Sudah ada sejumlah besar startup keamanan AI di luar negeri, dan di pasar Cina, permintaan yang sama juga ada, dan kami berharap pengusaha lokal yang luar biasa untuk bergerak menuju bidang kewirausahaan yang penting ini.