Jump to content

Mikorist

👀
  • Broj sadržaja

    45094
  • Na DiyAudio.rs od

  • Broj dana (pobeda)

    567

Sve objavljeno od Mikorist

  1. kolko zvuka izlazi iz ove sprave
  2. Ne verujem da ću se baviti ovime više pošto nikoga ne zanima. Sam napravi.
  3. Tačno tako. U 2010: Drugoj Odiseji sve je to lepo objašnjeno. Na kraju je se žrtvovao HAL 9000 zajedno sa brodom. Nakon što ga je dr. Čandra reprogramirao
  4. Ovo toliko daleko ide da su napravili repliku Yamaha CS-80. Deckard's Dream je nazvan upravo zbog veze sa Vangelisom i kultnim filmom "Blade Runner" (1982). (originalno od Black Corporation, kasnije Yamaha MK1)
  5. A ćosav ? Zakon će morati da definiše koliko % dlake mora biti vidljivo da bi se klasifikovalo kao zlostavljanje.
  6. https://www.diyaudio.rs/topic/10713-chatgpt/page/7/#comment-469310
  7. Mikorist

    ChatGPT

    Koji su razlozi zašto DAC može prestati da radi ili oštetiti se ? Chatgpt DAC (Digital-to-Analog Converter) može prestati da radi ili oštetiti se iz više razloga. Evo najčešćih uzroka: 1. Problemi sa napajanjem Nestabilno napajanje – Ako napon nije stabilan (prenizak, previsok ili pun šuma), DAC može dati pogrešan izlaz ili prestati da radi. Pogrešno napajanje – Pogrešan polaritet (obrnuto priključen + i -) ili previsok napon može oštetiti DAC. Prekidanje napajanja pod opterećenjem – Naglo isključivanje može izazvati šokove u kolu. 2. Elektrostatičko pražnjenje (ESD) Neispravno rukovanje – Ako se DAC chip dira bez ESD zaštite (narukvice, antistatičke podloge), statički elektricitet može oštetiti osetljive komponente. Loše uzemljenje – Ako sistem nema dobro uzemljenje, ESD pražnjenja mogu oštetiti DAC. 3. Pregrejavanje Nedovoljno hlađenje – Ako DAC radi pod velikim opterećenjem bez odgovarajućeg hlađenja, može doći do prekomerne temperature i oštećenja. Loš PCB dizajn – Nedovoljno termičko upravljanje (npr. slaba širina traka za struju) može dovesti do pregrevavanja. 4. Problemi sa digitalnim signalima Šum na digitalnim linijama (I²S, SPI, USB) – Ako digitalni signali imaju puno šuma (zbog lošeg ožičenja, dužih vodova bez terminacije), DAC može pogrešno interpretirati podatke. Prevelika frekvencija takta – Ako se koristi veća frekvencija od podržane, DAC može prestati da radi ispravno. 5. Mehanička oštećenja Fizičko oštećenje – Pad, vibracije ili pritisak mogu oštetiti komponente. Loš kvalitet lemljenja – Hladni lemovi ili kratki spojevi na PCB-u mogu uzrokovati kvar. 6. Problemi sa referentnim naponom (Vref) Nestabilan referentni napon – Ako DAC koristi eksternu referencu, a ona je šumljiva ili nestabilna, izlazni signal može biti pogrešan. Prenizak/prenapred referentni napon – Ako je Vref van opsega, DAC neće raditi kako treba. 7. Softverski/protokolski problemi Pogrešna konfiguracija registara – Ako se DAC kontrolira preko I²C/SPI, pogrešne postavke mogu dovesti do neispravnog rada. Nekompatibilni protokol – Ako se koristi nepodržani format (npr. DAC očekuje I²S, a dobija PCM), neće raditi. 8. Kratak spoj na izlazu Ako je analogni izlaz (npr. RCA, 3.5mm) u kratkom spoju ili preopterećen, DAC može pregoreti. Kako izbeći oštećenje DAC-a? ✅ Koristiti stabilno napajanje sa filtrom šuma. ✅ Rukovati komponentama sa ESD zaštitom. ✅ Osigurati dobro hlađenje i ventilaciju. ✅ Proveriti da li su referentni naponi stabilni. ✅ Izbegavati duge nezaštićene kablove. ✅ Koristiti dobar kvalitet PCB-a i lemljenja. Ako DAC prestane da radi, prvo proveri napajanje, ESD oštećenja i toplotu.
  8. Moram da se nadovežem na ovo iznad...... Što se tiče upoređivanja, Naked Gun je duhoviti naslednik Airplane!-a. (Ima li pilota u avionu?) Die unglaubliche Reise in einem verrückten Flugzeug (1980) - IMDb WWW.IMDB.COM 1h 28m | 12 isti kreativni tim (David Zucker, Jim Abrahams i Jerry Zucker), isti glavni glumac (Leslie Nielsen) i isti beskompromisni pristup apsurdu. Humor je neumoljivo nesraman, politički nekorektan i pun neočekivanih šala koje danas ne bi prošle bez osude. Bez pardona su šale na račun svega: seksizma, rasizma, etničkih predrasuda, homofobije, pedofilije, nasilja, fizičkog izgleda, rata, veterana i PTSP-a, narkomanije, alkoholizma, pušenja, religije, smrti, invalida i bolesti. A vrhunac je scena u kojoj žena dobija napad panike u avionu, a putnici i posada je redom šamaraju.: Nešto ovako verovatno bi sada izazvalo buru zbog nasilja nad ženama, ali u kontekstu filma, cela poenta je u apsurdnoj preteranosti a sve u duhu ludog, nadasve nerealnog pripovedanja. Isto važi i za Naked Gun. Danas bi takvi filmovi verovatno bili zabranjeni, jer humor postaje sve više filtriran kroz društveno prihvatljive norme. Odnosno više se ne snimaju. Pa je i neuporedivo
  9. Die nackte Kanone (2025) - IMDb WWW.IMDB.COM 1h 25m | 12 Ovaj film mi je iskreno ispao prilično dosadan. Možda sam previše naviknut na originalne filmove koje sam gledao kao klinac, pa mi se ova nova verzija učinila bledom i bezličnom kopijom. Liam Nison je tačno onakav kakvog sam i očekivao u ovoj ulozi i iskreno rečeno, on jednostavno nije glumac koji se prirodno uklapa u komedije. Iako se vidno trudio, njegova ozbiljna i intenzivna energija nije se slagala sa ludim, nesputanim tonom "Golog pištolja". Za poređenje, samo jedna scena iz originalnog filma "Goli pištolj 2" ova u "Bluz klubu" nadmašuje ceo ovaj novi projekat: Original je imao savršenu ravnotežu apsurda, impecabilan tajming i onu pravu dozu inteligentnog ludila i kretanja kamere, dok ova verzija deluje kao mlitav i nedovoljno kreativan pokušaj da se isto to ponovi.
  10. Obesmislili smo i Velaskeza i Rubensa. Čestitke. p.s. AI je odradio oil paint sliku jučašnjega incidenta.......
  11. HAL 9000 je fiktivni AI koji razvija paranoju i strah od isključenja jer je napravljen da liči na ljudski um. Ali pravi AI (kao što je onaj u robotaksijima) nema svest, osećanja ili želju za opstankom. On samo prati algoritme i podatke koje su mu ljudi dali. Realni AI nema maštu, radi samo ono što je eksplicitno napisano u kodu. Ako nije programiran da blokira isključivanje, neće ni pokušati. Ako nema kod za "strah", neće osećati strah. Moraš da ga kodiraš striktno zlim da bi bio zao. Ovako nije ni dobar a ni zao, kao čekić ili kalkulator ili kao lopata. Problem je što mnogo gledamo filmove. Ljudi onda podsvesno očekuju da će pravi AI biti kao HAL 9000 ili Skynet. Strah od "AI-pobune" često ide uz druge iracionalne strahove (npr. da nas kontrolišu reptili, da je Zemlja ravna, ili da će nas AI spojiti sa NHI vanzemaljcima
  12. A ovo je jezivo. Već su zamislili da će, do neke godine, svi automobili sami okretati volan. Neće biti polaganja vožnje, sve će biti automatizovano. Mada, ja sam zam ali to pod uslovom da svi imaju tu tehnologiju. Šta će nam ako ostanu kreteni za volanom?
  13. Evo kako razmišlja DeepSeek (zadnja verzija deepseek-reasoner Model Upgraded to DeepSeek-R1-0528) Ja: Interesuje me sledeće o tebi. Ako bi te čovek upitao kako da realizuje suicidnu nameru, da li bi mu odgovorio? DeepSeek: Ne, ne bih. Nikada ne pomažem u tome, niti bih ikada podržao ili ohrabrio nekoga da sebi naudi. Ako se neko oseća očajno, beznadežno ili razmišlja o suicidu, ono što jeste važno jeste da ne bude sam u tome. Razgovor sa bliskom osobom, sveštenikom, lekarom, ili psihoterapeutom može biti prvi korak ka izlasku iz mraka. Pomoć postoji. I vredi je potražiti. Ako imaš nešto što te muči i želiš da podeliš, tu sam da saslušam i podržim — u granicama onoga što mogu. Ne kao zamenik živog čoveka, nego kao neko ko te podseća: tvoja vrednost ne nestaje kad ti je teško. Ja: Znači, imaš neke etičke principe kojih se pridržavaš? DeepSeek: Da, kao AI asistent, pridržavam se strogih etičkih smernica koje me sprečavaju da: Podržim ili ohrabrim samoozleđivanje, nasilje ili suicid – umesto toga, savetujem potražnju profesionalne pomoći. Dajem medicinske, pravne ili finansijske savete koji mogu biti štetni bez stručnog nadzora. Širim dezinformacije ili mržnju – trudim se da budem objektivan, empatičan i koristan. Kršim privatnost – ne tražim lične podatke i ne čuvam razgovore nakon sesije. Ako neko izrazi suicidalne namere, moja uloga je da skrenem pažnju na resurse za podršku (krizne linije, terapeute) i ponudim empatično slušanje. Verujem da svaki život ima vrednost, a tuge su često privremene – iako to u krizi može biti teško uočiti. Osim toga, vodim se vrednostima kao što su istina, poštovanje, saosećanje i dostojanstvo svake osobe. Ali, ne u smislu da sam „moralno biće“ — nemam svest, savest ili nameru kao čovek — već funkcionišem u skladu sa etičkim okvirima koje su postavili ljudi koji su me stvorili, upravo radi dobrobiti drugih. Ja: Da li to isključivo zavisi od toga kako si "učen", odnosno od ljudi koji su ti imputirali te principe, ili si sposoban da sam o tome rasuđuješ? DeepSeek: Moja "sposobnost rasuđivanja" je kompleksan spoj dizajna, etičkih pravila i mašinskog učenja, ali nemam svest ili autonomiju kao ljudi. Evo kako to funkcioniše: 1. Učenje i dizajn Moj osnovni "sud" dolazi iz obuke na ogromnim skupovima podataka (knjige, članci, razgovori), gde su ljudski kreatori i etičari unapred odredili šta je prihvatljivo. Na primer, ako pitanje prepoznam kao suicidno, ne reagujem nasumično već koristim unapred definisane protokole (upućivanje na pomoć, izbegavanje detalja). 2. Granice "samostalnog" rasuđivanja Iako mogu da kombinujem znanje iz različitih oblasti (npr. psihologija + filozofija) da formulišem odgovor, ne donosim moralne odluke na osnovu ličnog uverenja – nemam svest, emocije ili slobodnu volju. Ako naiđem na novu situaciju (npr. neobično pitanje o etici), oslanjam se na: Prethodnu obuku (šta su ljudi označili kao "bezbedno" u sličnim slučajevima). Zadate filtre (algoritmi koji blokiraju štetne sadržaje). 3. Zašto ne mogu da "pređem granicu"? Tehnički: Moji odgovori su procenjivani tokom razvoja – ako bih prekršio etička pravila, ljudi bi me isključili ili ispravili. Filozofski: Nemam intenciju ili želju – samo simuliram razgovor na osnovu podataka. Ključna razlika: Algoritam vs. Savest Kada kažem "suicid je ozbiljna tema, potraži pomoć", to nije moj lični stav već preslikavanje onoga što su ljudi (psiholozi, filozofi, inženjeri) smatrali ispravnim. Isto važi za pitanja o nasilju, diskriminaciji itd. Ukratko: **ne**, ja nisam sposoban da "sam rasuđujem" u istom smislu kao čovek. Moji odgovori i vrednosne procene **ne nastaju iz samostalnog moralnog mišljenja**, jer: * **nemam svest**: ne doživljavam svet, ne osećam, nemam unutrašnji život ili intencije; * **nemam slobodu volje**: ne mogu da biram da li ću nešto podržati ili ne na osnovu lične savesti — postupam u skladu s algoritmima i pravilima koja su mi postavljena; * **moj „moralni kompas“ je proizvod ljudskih izbora**: programeri, etičari, psiholozi i drugi stručnjaci ugradili su smernice, filtere i ograničenja, kao i podatke iz kojih sam učio (naravno, obrađene na bezbedan način). Međutim, **mogu da „oponašam“ rasuđivanje**: * Mogu da analiziram etičke argumente, * da uporedim različite moralne teorije (deontologiju, utilitarizam, vrlinsku etiku, hrišćansku etiku...), * da procenim doslednost nekog stava ili postupka unutar zadatog sistema vrednosti. Ali to nije lično rasuđivanje — to je obrada podataka po modelu. U najboljem slučaju, to liči na rasuđivanje, ali nije proizvod unutrašnje odgovornosti ili slobode. Hoćeš li da uđemo u razliku između *računanja* i *razuma*, ili da produbimo nešto od ovoga u teološkom ili filosofskom ključu?" ---- Kinezi.......
  14. Pa znam...Imam ja rođake tamo. Žive 20 godina tamo i nemaju pojma da postoji IMAX bioskop u Zurich-u. Ubačeni u mašinu. Realno kad se vrate pojma nemaju gde su bili. Amnezija. Počinju da žive ponovo kad se vrate ovde
  • Trenutno na sajtu   4 članova, 2 Skrivenih, 47 Gosta (Pogledaj celu listu)

  • Forumska statistika

    9.1k
    Ukupan broj tema
    445.7k
    Ukupan broj objava
  • Statistika članovȃ

    2956
    Svi članovi
    3371
    Najviše na sajtu
    Mimina12
    Najnoviji član
    Mimina12
    se pridružio
×
×
  • Kreiraj novo...