Description
Zgubne używanie kodu generowanego przez AI
Według najnowszego raportu sporządzonego przez Venafi (firma zajmująca się cyberbezpieczeństwem) 70 procent liderów do spraw cyberbezpieczeńtwa, nie wierzy, że programiści sprawdzą jakość kodu wygenerowanego przez sztuczną inteligencję z taką samą dokładnością jak w przypadku własnoręcznie napisanego.
Jedną z korzyści jakie daje AI jest pomoc programistom w wykonywaniu prostych zadań. Ponad 60 procent liderów cyberbezpieczeństwa chce zakazu stosowania AI w kodowaniu ze względu na ryzyko, jakie niesie ona ze sobą. Jeszcze więcej, bo ponad 90 procent liderów jest zaniepokojonych stosowaniem kodu stworzonym przez sztuczną inteligencję w swojej organizacji.
Jakie mamy zagrożenia ze strony AI?
Modele AI mogą być wytrenowane na przestarzałych bibliotekach open-source.
Programiści mogą szybko uzależnić się od udogodnień jakie oferuje AI.
Nadmierne wykorzystywanie narzędzi AI do pisania kodu.
Ryzyko tworzenia i rozpowszechniania słabego kodu.
Brak dokładnej i systematycznej kontroli kodu wygenerowanego przez AI.
Programiści mogą nie czuć się odpowiedzialni za kod stworzony za AI.
Niemniej jednak, bardzo duża ilość firm w Stanach Zjednoczonych, Wielkiej Brytanii, Niemczech czy Francji używa sztucznej inteligencji do tworzenia kodu. A w połowie z nich jest to powszechna praktyka. Ponad 70 procent firm nie widzi innej ścieżki rozwoju i utrzymania się na rynku i pozwala na użycie AI aby firma była konkurencyjna.
Według Gartnera (firma analityczno-badawcza specjalizująca się w zagadnieniach strategicznego wykorzystania technologii oraz zarządzania technologiami), do 2028 roku 90% programistów będzie korzystać z asystentów kodu opartych na sztucznej inteligencji, co spowoduje wzrost produktywności.
23.09.2024
źródło: TechRepublic
cyberbezpieczeństwo, kod stworzony przez AI, kod napisany przez stuczną inteligencję, stosowanie kodu AI, zakaz stosowania AI w kodowaniu, AI, sztuczna inteligencja, rozpowszechnianie słebego kodu, brak odpowiedzialności za kod AI, trenowanie AI, cybersecurity, code created by AI, code written by artificial intelligence, use of AI code, ban on the use of AI in coding, AI, artificial intelligence, distribution of weak code, lack of responsibility for AI code, training AI, Cybersicherheit, von KI erstellter Code, von künstlicher Intelligenz geschriebener Code, Verwendung von KI-Code, Verbot der Verwendung von KI beim Codieren, KI, künstliche Intelligenz, Verbreitung von schwachem Code, mangelnde Verantwortung für KI-Code, Training von KI,