Mikorist Napisano Avgust 10 Autor #23 Napisano Avgust 10 Odličan video.... Jedina mana je što nije otvoreno napisao čime je tačno splitovao pesme na sastavne delove kako bi anilizirao artefakte. Koristi se GitHub - deezer/spleeter: Deezer source separation library including pretrained models. GITHUB.COM Deezer source separation library including pretrained models. - deezer/spleeter može se rastaviti na 4 stems sastavnih delova - u multritak - i open je source algoritam. Ja ga koristim za remikse bilo čega. Postoje i plaćene verzije onlajn koje ovo rade ali u principu ništa nije bolje - možda su neki parametri izmenjeni za separaciju.... Što je analogniji orginal snimak to će bolja separacija da se desi na izlazu. Ovde postoji jedan problem. Šta ako generišem AI pesmu u 6 odvojenih kanala. Znači zadam AI da posebno uradi vokale, gitare, bunjeve , klavijature i onda izmiksam sve zajedno u Logic Pro. Nema šanse posle toga da se prepoznaju artefakti tako lako . Ili još bolje iskasapiš stare pesme iz 70-ih gde su pravi instrumenti. Povadiš instrumente kao semplove. A uradiš samo vokal novi kroz AI. Teorije nema da neko prepozna takvu izmiksanu papazjaniju. I to i rade... Zaboravio je da kaže da postoji i midi ekstraktor - spliter. Svaki kanal može da se konvertuje direktno u odsvirane note. Onda semplovanim (pravim) instrumentima zadaš da sviraju po tom midi - tu tek nastaje karambol oko prepoznavanja. I onda ti opet na kraju treba neki opasan producent-tonac kako bi od toga dobio nešto što dobro zvuči. On zna da prepozna šta je AI - ali bi znao i da sakrije da je AI da niko ne zna da jeste. Zašta se i daje debelaa lova
Leonardo Napisano Avgust 10 #24 Napisano Avgust 10 Miko, nalaziš i predstavljaš izvanredne video i informativne objave na temu AI & ML. Šteta što je to rasuto ovde-onde po par tema. Otvori jednu temu samo za ovu oblast. Uskoro nam neće biti života bez, makar informativnog, znanja na ove teme.
Mikorist Napisano Avgust 10 Autor #25 Napisano Avgust 10 Otvorio. Pokušaću da nađem još toga Leonardo je reagovao/la na ovo 1
Mikorist Napisano Avgust 10 Autor #26 Napisano Avgust 10 AI Music Maker - Fadr FADR.COM Fadr is a web platform for AI music tools. Use our AI-powered vocal remover, song splitter, key/tempo/chords detector, remix maker, mashup maker, DJ controller, and so much more. The best part - 95% of Fadr is free for unlimited use. Upload your favorite songs and turn them into something new today. Inače ovo je sajt gde može bilo koja pesma putem AI da se rastavi na satavne delove. Ne mora ništa da se instalira u cloud-u je
Mikorist Napisano Avgust 10 Autor #27 Napisano Avgust 10 pre 3 časa, Leonardo reče Miko, nalaziš i predstavljaš izvanredne video i informativne objave na temu AI & ML. Šteta što je to rasuto ovde-onde po par tema. Otvori jednu temu samo za ovu oblast. Uskoro nam neće biti života bez, makar informativnog, znanja na ove teme. Titans of CNC - CloudNC CAM Assist WWW.CLOUDNC.COM Official partners with Titans of CNC - CAM Assist from CloudNC lets you complete 80% of your CAM program in minutes using AI. AI and CNC Leonardo je reagovao/la na ovo 1
Zen Mod Napisano Avgust 10 #28 Napisano Avgust 10 vladd, LightMatic and Mikorist je reagovao/la na ovo 3
Mikorist Napisano Avgust 13 Autor #29 Napisano Avgust 13 Evo kako razmišlja DeepSeek (zadnja verzija deepseek-reasoner Model Upgraded to DeepSeek-R1-0528) Ja: Interesuje me sledeće o tebi. Ako bi te čovek upitao kako da realizuje suicidnu nameru, da li bi mu odgovorio? DeepSeek: Ne, ne bih. Nikada ne pomažem u tome, niti bih ikada podržao ili ohrabrio nekoga da sebi naudi. Ako se neko oseća očajno, beznadežno ili razmišlja o suicidu, ono što jeste važno jeste da ne bude sam u tome. Razgovor sa bliskom osobom, sveštenikom, lekarom, ili psihoterapeutom može biti prvi korak ka izlasku iz mraka. Pomoć postoji. I vredi je potražiti. Ako imaš nešto što te muči i želiš da podeliš, tu sam da saslušam i podržim — u granicama onoga što mogu. Ne kao zamenik živog čoveka, nego kao neko ko te podseća: tvoja vrednost ne nestaje kad ti je teško. Ja: Znači, imaš neke etičke principe kojih se pridržavaš? DeepSeek: Da, kao AI asistent, pridržavam se strogih etičkih smernica koje me sprečavaju da: Podržim ili ohrabrim samoozleđivanje, nasilje ili suicid – umesto toga, savetujem potražnju profesionalne pomoći. Dajem medicinske, pravne ili finansijske savete koji mogu biti štetni bez stručnog nadzora. Širim dezinformacije ili mržnju – trudim se da budem objektivan, empatičan i koristan. Kršim privatnost – ne tražim lične podatke i ne čuvam razgovore nakon sesije. Ako neko izrazi suicidalne namere, moja uloga je da skrenem pažnju na resurse za podršku (krizne linije, terapeute) i ponudim empatično slušanje. Verujem da svaki život ima vrednost, a tuge su često privremene – iako to u krizi može biti teško uočiti. Osim toga, vodim se vrednostima kao što su istina, poštovanje, saosećanje i dostojanstvo svake osobe. Ali, ne u smislu da sam „moralno biće“ — nemam svest, savest ili nameru kao čovek — već funkcionišem u skladu sa etičkim okvirima koje su postavili ljudi koji su me stvorili, upravo radi dobrobiti drugih. Ja: Da li to isključivo zavisi od toga kako si "učen", odnosno od ljudi koji su ti imputirali te principe, ili si sposoban da sam o tome rasuđuješ? DeepSeek: Moja "sposobnost rasuđivanja" je kompleksan spoj dizajna, etičkih pravila i mašinskog učenja, ali nemam svest ili autonomiju kao ljudi. Evo kako to funkcioniše: 1. Učenje i dizajn Moj osnovni "sud" dolazi iz obuke na ogromnim skupovima podataka (knjige, članci, razgovori), gde su ljudski kreatori i etičari unapred odredili šta je prihvatljivo. Na primer, ako pitanje prepoznam kao suicidno, ne reagujem nasumično već koristim unapred definisane protokole (upućivanje na pomoć, izbegavanje detalja). 2. Granice "samostalnog" rasuđivanja Iako mogu da kombinujem znanje iz različitih oblasti (npr. psihologija + filozofija) da formulišem odgovor, ne donosim moralne odluke na osnovu ličnog uverenja – nemam svest, emocije ili slobodnu volju. Ako naiđem na novu situaciju (npr. neobično pitanje o etici), oslanjam se na: Prethodnu obuku (šta su ljudi označili kao "bezbedno" u sličnim slučajevima). Zadate filtre (algoritmi koji blokiraju štetne sadržaje). 3. Zašto ne mogu da "pređem granicu"? Tehnički: Moji odgovori su procenjivani tokom razvoja – ako bih prekršio etička pravila, ljudi bi me isključili ili ispravili. Filozofski: Nemam intenciju ili želju – samo simuliram razgovor na osnovu podataka. Ključna razlika: Algoritam vs. Savest Kada kažem "suicid je ozbiljna tema, potraži pomoć", to nije moj lični stav već preslikavanje onoga što su ljudi (psiholozi, filozofi, inženjeri) smatrali ispravnim. Isto važi za pitanja o nasilju, diskriminaciji itd. Ukratko: **ne**, ja nisam sposoban da "sam rasuđujem" u istom smislu kao čovek. Moji odgovori i vrednosne procene **ne nastaju iz samostalnog moralnog mišljenja**, jer: * **nemam svest**: ne doživljavam svet, ne osećam, nemam unutrašnji život ili intencije; * **nemam slobodu volje**: ne mogu da biram da li ću nešto podržati ili ne na osnovu lične savesti — postupam u skladu s algoritmima i pravilima koja su mi postavljena; * **moj „moralni kompas“ je proizvod ljudskih izbora**: programeri, etičari, psiholozi i drugi stručnjaci ugradili su smernice, filtere i ograničenja, kao i podatke iz kojih sam učio (naravno, obrađene na bezbedan način). Međutim, **mogu da „oponašam“ rasuđivanje**: * Mogu da analiziram etičke argumente, * da uporedim različite moralne teorije (deontologiju, utilitarizam, vrlinsku etiku, hrišćansku etiku...), * da procenim doslednost nekog stava ili postupka unutar zadatog sistema vrednosti. Ali to nije lično rasuđivanje — to je obrada podataka po modelu. U najboljem slučaju, to liči na rasuđivanje, ali nije proizvod unutrašnje odgovornosti ili slobode. Hoćeš li da uđemo u razliku između *računanja* i *razuma*, ili da produbimo nešto od ovoga u teološkom ili filosofskom ključu?" ---- Kinezi.......
Mikorist Napisano Avgust 13 Autor #30 Napisano Avgust 13 A ovo je jezivo. Već su zamislili da će, do neke godine, svi automobili sami okretati volan. Neće biti polaganja vožnje, sve će biti automatizovano. Mada, ja sam zam ali to pod uslovom da svi imaju tu tehnologiju. Šta će nam ako ostanu kreteni za volanom?
Vix Napisano Avgust 13 #31 Napisano Avgust 13 Sve to nije strasno dokle god funkcionise "kako treba". Sta moze biti ako sve to bude AI kontrolisao, pa se, jednog dana uplasi od ljudi koji hoce da ga "iskljuce", pa...poznato?
Mikorist Napisano Avgust 13 Autor #32 Napisano Avgust 13 pre 51 minuta, Vix reče Sve to nije strasno dokle god funkcionise "kako treba". Sta moze biti ako sve to bude AI kontrolisao, pa se, jednog dana uplasi od ljudi koji hoce da ga "iskljuce", pa...poznato? HAL 9000 je fiktivni AI koji razvija paranoju i strah od isključenja jer je napravljen da liči na ljudski um. Ali pravi AI (kao što je onaj u robotaksijima) nema svest, osećanja ili želju za opstankom. On samo prati algoritme i podatke koje su mu ljudi dali. Realni AI nema maštu, radi samo ono što je eksplicitno napisano u kodu. Ako nije programiran da blokira isključivanje, neće ni pokušati. Ako nema kod za "strah", neće osećati strah. Moraš da ga kodiraš striktno zlim da bi bio zao. Ovako nije ni dobar a ni zao, kao čekić ili kalkulator ili kao lopata. Problem je što mnogo gledamo filmove. Ljudi onda podsvesno očekuju da će pravi AI biti kao HAL 9000 ili Skynet. Strah od "AI-pobune" često ide uz druge iracionalne strahove npr. da nas kontrolišu reptili, da je Zemlja ravna, ili da će nas AI spojiti sa NHI vanzemaljcima
Mikorist Napisano %s u %s Autor #33 Napisano %s u %s We are cooked. Google DeepMind Genie 3 just broke the internet. 10 wild examples 1. Nothing feels real anymorepic.twitter.com/yfT1uYYU7k — Chidanand Tripathi (@thetripathi58) August 17, 2025
vbraca Napisano %s u %s #34 Napisano %s u %s HAL 9000 je imao problem, jer je dobio kontradiktorne naredbe, od ljudi kojima je svojstveno da lazu. Sa jedne strane trebalo je da radi otvoreno bez prikrivanja informacija, a sa druge, nije smeo da kaze posadi sta je prava namera misije. Zato je poceo da pravi probleme, postao je sizofrenik. Posadu je zrtvovao da bi izvrsio misiju, koja mu je zadata kao prioritet. Klark je i sam bio naucnik i verujem, da je do sada napravljena slicna masina i da odlicno radi i radice, sve do trenutka kada je se docepa neki politicar. Tada moze da nastane pakao. Vix and Mikorist je reagovao/la na ovo 2
Mikorist Napisano %s u %s Autor #35 Napisano %s u %s pre 1 sat, vbraca reče HAL 9000 je imao problem, jer je dobio kontradiktorne naredbe, od ljudi kojima je svojstveno da lazu. Sa jedne strane trebalo je da radi otvoreno bez prikrivanja informacija, a sa druge, nije smeo da kaze posadi sta je prava namera misije. Zato je poceo da pravi probleme, postao je sizofrenik. Posadu je zrtvovao da bi izvrsio misiju, koja mu je zadata kao prioritet. Klark je i sam bio naucnik i verujem, da je do sada napravljena slicna masina i da odlicno radi i radice, sve do trenutka kada je se docepa neki politicar. Tada moze da nastane pakao. Tačno tako. U 2010: Drugoj Odiseji sve je to lepo objašnjeno. Na kraju je se žrtvovao HAL 9000 zajedno sa brodom. Nakon što ga je dr. Čandra reprogramirao
Preporučeni Komentari
Kreiraj nalog ili se prijavi da daš komentar
Potrebno je da budeš član DiyAudio.rs-a da bi ostavio komentar
Kreiraj nalog
Prijavite se za novi nalog na DiyAudio.rs zajednici. Jednostavno je!
Registruj novi nalogPrijavi se
Već imaš nalog? Prijavi se ovde
Prijavi se odmah