![]() |
![]() |
![]()
Post
#1
|
|
![]() Grupa: Zarejestrowani Postów: 1 707 Pomógł: 266 Dołączył: 3.07.2012 Skąd: Poznań Ostrzeżenie: (0%) ![]() ![]() |
Cześć,
komputery wciąż są bardzo powolne, takie jest moje zdanie. Postęp też znacząco zwolnił. Czy komputery sprzed 5-ciu lat są dziś przestarzałe? Nie. To dowód na to, że idziemy do przodu bardzo powoli. Zastanawiam się kiedy nadejdzie prawdziwy przełom. Nie mam tu na myśli wzrostu wydajności o 200% czy 500%, ale o czasy, kiedy wydajność przestanie nad interesować. Większości ludzi pewnie trudno to sobie wyobrazić, bo "przecież wydajność to jeden z podstawowych tematów związanych z komputerami". Tak jest teraz, ale kiedyś tak nie będzie. Wydajność zawsze będzie ograniczona, ale przestanie być zauważalnym problemem w momencie, kiedy sprzęt przestanie ograniczać potrzeby. Wtedy powiem, że komputery nie są już powolne ![]() Ktoś powie, że potrzeby będą rosły razem z wydajnością sprzętu. Zgadzam się, ale to nie jest równy wyścig. Jakość obrazu nie będzie szła do przodu w nieskończoność, bo ludzkie oko nie ma nieskończonej dokładności widzenia. Ilość danych nie będzie się zwiększała w nieskończoność, bo liczba ludzi na naszej planecie nie zdziesiątkuje się. Ktoś jeszcze powie, że dzisiejsze komputery są szybkie i się czepiam. Pamiętajmy, że to samo mówiono 20 lat temu i wcześniej. Komputery nigdy wcześniej nie były szybsze niż dzisiaj, ale to nie znaczy, że są szybkie. Jakie jest Wasze zdanie na ten temat? Ten post edytował SmokAnalog 28.02.2015, 02:51:09 |
|
|
![]() |
![]()
Post
#2
|
|
Grupa: Zarejestrowani Postów: 675 Pomógł: 58 Dołączył: 17.12.2013 Ostrzeżenie: (10%) ![]() ![]() |
Temat super rzuciles.. jest i glupi, i madry, i prosty i skomplikowany. Zobaczymy jaka droga pojdziemy aczkolwiek postaram sie wybrac ta madrzejsza i bardziej skomplikowana choc tutaj linia jest cienka miedzy scfi a nauka wiec jak przegne to sory.
Moim skromnym zdaniem moment ten jest juz calkiem calkiem blisko. Mowisz o wydajnosci, przetwarzaniu informacji... prawda jest taka ze komputery na dzisiejsze potrzeby ludzi sa wystarczajaco szybkie, czy sasiad Zenek wiedzialby co zrobic z 32 gb ramu + 8 rdzeni po 3-4ghz? pewnie ze nie. ja bym to zajechal w miesiac zabawy z angularem przy big data. ale teraz patrz jaki myk... to dziala progresywnie. Sa komputery ktore maja po 80 rdzeni, 320 gb ramu i ja nie wiedzialbym co z nimi zrobic a przyjdzie taki starszy kolega, chocby Python ( ![]() Teraz - nie potrzebujemy wiecej, stad wynika fakt ze nie ma juz takiego wzrostu wydajnosci jak kiedys, zeby ten boom znow nastapil za pare lat a wydaje mi sie ze krytycznym punktem bedzie polaczenie czlowieka do komputera, to bedzie kolejna rewolucja industrialna i przelom nie tylko naukowy co kulturowy. Wtedy juz niestety procesory krzemowe i tranzystory, miroprocesory nie wystarcza do obsluzenia biliardow informacji jakie nasz organizm generuje. Tu widze klucz do rozwoju komputerow kwantowych ktore powinny byc tak szybkie - jak nasze mozgi zeby sprawnie sie z nami integrowac. Nic innego nie przychodzi mi do glowy jako motor dla dalszego rozwoju tej technologi.. bo i po co? zeby wiecej big data danych klientow analizowac i dopasowywac lepsze oferty? rzygac mi sie tym chce. nic juz w IT nie wymysla co mnie zaskoczy, i nie mowie tu o jakis stronach internetowych i startupach... technologia to nie strony. to miliardy mozliwosci ktore wydaje mi sie - juz osiagnelismy. jeszcze tylko... cybernetyka, porzadny naped do latania po kosmosie i tyle. koniec komputerow. edit: takze nie wazne ile bys teraz procesorow, ghz wcisnal do kompa... uzytkownik juz tego mocno nie odczuje ( zakladajac ze wszyscy mieli by w miare nowoczesny sprzet i udalo by sie to ustabilizowac ), zeby teraz byla widoczna zmiana i realny rozwoj technologii to wydaje mi sie ze nie zbedna jest integracja ludzi z maszynami. to da koniecznosc skonstruowania takich procesorow ktore beda informacje przetwarzaly miliardy razy szybciej niz dzisiejsze pcty i stacje robocze. Ten post edytował tzm 28.02.2015, 01:20:44 |
|
|
![]()
Post
#3
|
|
![]() Grupa: Zarejestrowani Postów: 1 707 Pomógł: 266 Dołączył: 3.07.2012 Skąd: Poznań Ostrzeżenie: (0%) ![]() ![]() |
Tzm, masz właśnie na ten temat pogląd dokładnie taki jak większość. Wzrost wydajności nazywasz setkami terabajtów, rdzeniami, gigahercami - czymś kosmicznym. Takie podejście jest mocno skażone sytuacją obecną, gdzie do osiągnięcia lepszej wydajności trzeba coś "dokładać" w ilościach, które wydają się śmieszne. Nie oszukujmy się - przełom nie nastąpi na obecnym TYPIE sprzętu. Ewentualna rewolucja nastąpi, kiedy zmienią się materiały, a może i cała architektura sprzętu.
Mówisz, że na dzisiejsze potrzeby komputery są wystarczająco szybkie. Tu też się nie zgodzę i znowu powiem - "to samo mówiono 20 lat temu". Człowiek przyzwyczaja się do ograniczeń i trudno sobie wyobrazić ich brak. Tak samo było, kiedy ekrany w telefonach były monochromatyczne, nie czuło się jakiegoś braku, bo nie było punktu odniesienia do kolorowego ekranu. Ja jestem typem człowieka niecierpliwego i każda sekunda czekania na reakcję maszyny mnie irytuje. Mam niezłego laptopa z dyskiem SSD, 8 GB RAM-u i procesorem i7, ale nie odważyłbym się powiedzieć, że szybkość jest wystarczająca. Dysk SSD robi ogromną różnicę, ale nadal czekam aż wykona się to czy tamto. Czekanie = archaik. Nie wspomnę już o maszynach typu bankomaty, gdzie czeka się wiele sekund na reakcję. Wiem, że wiele z tego czasu zajmuje połączenie się z bankiem, ale to również wliczam w temat tego oczekiwanego przełomu. |
|
|
![]()
Post
#4
|
|
Grupa: Zarejestrowani Postów: 675 Pomógł: 58 Dołączył: 17.12.2013 Ostrzeżenie: (10%) ![]() ![]() |
No to jak takis nerwowy ze Cie czekanie wkurza to zloz sobie komputer za 5k+, wloz tam 64gb ramu i zobaczysz ze tez Ci przymuli. Ilosc to nie wszystko. Poza tym, wydaje mi sie ze z nas dwoch Ty zle podszedles do tematu albo zle go przedstawiles bo uderzasz w rzeczywista wydajnosc komputerow teraz, co mnie czy obchodzi cos sie laduje 500us czy 50us? Jak Cie to meczy to melisy zaparz, ja pamietam czasy ze na unrealu 1 sie palily procesory z przydomkiem turbo, dla mnie wydajnosc to cos innego niz sekunda czekania. Patrz... Ja Ci wyjechalem z uniwersyteckimi super komputerami a T sprowadzasz rozmowe do i7, stary Twoj pentium to kalkulator w morzu potrzeb przelomu rewolucj wydajnosci pctow. Nie bierz tego do siebie ale masz sprzet jak kazdy w tych czasach. A jesli chodzisz z nanozegarkiem no to jasne... Twoj i7 jest lepszy od mojego X740 i co z tego? informacje czytam z ta sama szybkoscia(wzglednie), filmy laduja mi sie 20mb/s, gta iv chodzi z palcem w dupie na full, angular smiga jak bajka przy 8gb ramu aczkolwiek, zdarzy mu sie pomyslec dluzej niz netbeansowi. ale to normalne. Musimy Chyba pomyslec o czym ta rozmowa ma byc, bo widze ze ja wybralem ten naukowy tor, a Ty ten przyziemny.
Ten post edytował tzm 28.02.2015, 01:47:37 |
|
|
![]()
Post
#5
|
|
![]() Grupa: Zarejestrowani Postów: 1 707 Pomógł: 266 Dołączył: 3.07.2012 Skąd: Poznań Ostrzeżenie: (0%) ![]() ![]() |
Rozmowa jest o sprzęcie dla zwykłych zjadaczy chleba, a nie o sprzęcie dla naukowców. Poza tym sprzęt dla naukowców nie różni się aż tak bardzo od naszego, wzrost wydajności nawet kilkudziesięciokrotny to jeszcze nie jest przełom, o którym mówię. Na Unrealu się paliły procesory, ale czy dzisiaj nie jest podobnie z nowymi grami? Dalej trzeba inwestować w jakiś sprzęt z górnej półki (który jest drogi, duży i głośny), żeby móc grać w nowe gry, które wcale graficznie nie powalają. Owszem, są pięknie W PORÓWNANIU do tego co znamy, ale obiektywnie świetnej grafiki trójwymiarowej w grach jeszcze nie było. To tylko moje zdanie oczywiście. Włącz sobie choćby głupie Sims 4 (nie, nie zaliczam tej gry do ładnych graficznie) i powiedz mi, że wydajność tej gry nie przeszkadza w odbiorze.
Dziwię się, że nie przypominasz sobie operacji, na które czekasz o wiele dłużej niż 1s. A co z włączaniem/wyłączaniem komputera, renderowaniem filmów, rozpakowywaniem plików, pobieraniem danych i wieloma innymi czynnościami? Nie rozumiem też dlaczego mnie atakujesz z tą melisą. To, że ktoś jest wymagający i nie zatrzymuje się na tym co jest, sprzyja przełomowi. Być może nie odczuwasz potrzeby przełomu teraz, ale gwarantuję Ci, że gdybyś dostał taki opisywany przeze mnie sprzęt i potem wrócił do swojego, to złapałbyś się za głowę. Samo to, że taka ogromna przepaść jest wyobrażalna (chociaż nie wiem czy w zasięgu Twojej wyobraźni) pokazuje, że jest jeszcze bardzo, bardzo dużo do zmiany w kwestii maszyn. Ten post edytował SmokAnalog 28.02.2015, 01:59:01 |
|
|
![]()
Post
#6
|
|
![]() Grupa: Zarejestrowani Postów: 655 Pomógł: 73 Dołączył: 2.05.2014 Ostrzeżenie: (0%) ![]() ![]() |
Panowie.. już są "kwantowe" komputery które działają. Nie są one w pełni znaczeniu tego określenia "kwantowe". Masz D-wave którzy robią wielkie postępy.
To jest temat dzisiaj taki sam jak obecne komputery 30-60 lat temu (ciężko mi dokładnie to określić...). Jednak za kilka-kilkanaście lat będzie coraz powszechniejsze. Mnie tylko przeraża programowanie takiego cacka ![]() Tylko niech mi ktoś nie zacznie pisać, że w wielu sytuacjach one są wolniejsze od obecnie powszechnej technologi. Komputery kwantowe to stadium "embrionalne" wręcz, trzeba czekać. Wyobraź sobie "moc" Prometheus'a w wymiarach telefonu - pewnie się teraz zapędziłem, ale to jest dopiero interesująca przyszłość. Ostatnio dużo się mówi o AI. Google stworzyło program, który sam uczy się grać i wygrywać w klasyczne gry (obecnie 41 tytułów nauczył się SAM). Microsoft ma algorytmy do przepowiadania przyszłości (wszystkie prócz jednego oscara w tym roku - no .. to może nie było trudno, ale przykładów jest znacznie więcej). Czasami żałuje, że istnieje mała szansa abyśmy dożyli takiej prawdziwej robotyki z AI obcującej z nami na codzień... chociać, kto go tam wie ![]() -------------------- Overwatch24 - najbardziej zaawansowany Polski portal Overwatch od fanów dla fanów.
Fachowo.co Behance.net/fachowo |
|
|
![]()
Post
#7
|
|
![]() Grupa: Zarejestrowani Postów: 1 707 Pomógł: 266 Dołączył: 3.07.2012 Skąd: Poznań Ostrzeżenie: (0%) ![]() ![]() |
Problem AI to akurat kwestia algorytmiki, nakładu ludzkiej pracy, a nie sprzętu.
Myślę, że programowanie będzie w przyszłości znacznie łatwiejsze niż dzisiaj. Nie chcę odpływać totalnie z wizjami, więc załóżmy, że dalej pisze się kod. Łatwiejsze będzie dlatego, że zniknie temat optymalizacji kodu pod względem wydajności, po prostu to się nie będzie opłacało. Odczuwalny zysk na wydajności będzie zerowy. Dobry programista będzie pisał czytelny, elastyczny i pozbawiony błędów kod i na tym będzie polegała jego praca. Nie będzie żadnych półśrodków, kompromisów w celu zwiększenia wydajności kodu. Kod będzie piękny. |
|
|
![]()
Post
#8
|
|
![]() Grupa: Zarejestrowani Postów: 673 Pomógł: 106 Dołączył: 31.12.2008 Ostrzeżenie: (0%) ![]() ![]() |
Problem AI to akurat kwestia algorytmiki, nakładu ludzkiej pracy, a nie sprzętu. Chcesz powiedzieć, że sprzęt jaki powstaje to nie ciężki nakład ludzkiej pracy, a krasnoludki? Myślę, że programowanie będzie w przyszłości znacznie łatwiejsze niż dzisiaj. Wręcz przeciwnie, masz już w swoim komputerze zapewne z 500 rdzeni (karta graficzna) - umiesz je wykorzystać? Zgadza się, jest to "ciężkie", ponieważ są specjalizowane, ale dobrze pokazują, że póki co wymaga się od programisty większej wiedzy. Widać też że niektórych problemów nie da się rozwiązać takim tokiem rozumowania (tak jak innych algorytmów wielomianowo dlatego zawsze będzie za mało). Swoją drogą sprawdź sobie jakiś dokładny algorytm rozwiązujący np. problem sumy podzbioru i sprawdź o ile będzie wstanie policzyć więcej w rozsądnym czasie (np 1 min) jeśli zwiększymy wydajność komputera 2-krotnie. Obrazowo wygląda to mniej-więcej tak, że umiemy to zrobić dla 1000 liczb (liczby przykładowe), a przy 2x zwiększeniu wydajności dla 1001 liczb (czyli 100x zwiększenie wydajności to nic... nadal zabija nas algorytm). Odnośnie procesorów kwantowych, zaryzykował u nas na uczelni jeden z profesorów stwierdzenia (a właściwie powiedział to z dużym przekonaniem), że zanim one powstaną (jako nadające się do komercyjnego użytku) to nauka pisania pod nie aplikacji stanie się nieopłacalna. -------------------- |
|
|
![]()
Post
#9
|
|
Grupa: Zarejestrowani Postów: 4 298 Pomógł: 447 Dołączył: 16.11.2006 Ostrzeżenie: (0%) ![]() ![]() |
Dzisiaj zachwycamy się, kiedy proste interfejsy graficzne w telefonach komórkowych działają bez przycięć. Kiedyś oczywistością będzie to, że film będzie się renderował w odczuwalnym czasie 0 sekund. To otworzy zupełnie nowe możliwości i stworzy ogromny komfort pracy. Zachwycasz się tym, bo uruchamiasz GUI sprzed 20lat na współczesnej technologii, to równie dobrze mógłbyś wgrać na telefon nawet sprzed 5 lat, windows 95 i też byś się zachwycał szybkością jego działania. Rozwój chociażby procesorów zatrzymał się chyba z 10 lat temu, fakt, doszły rdzenie ale nie zwiększyło to ich taktowania, nie tak jak można było to zaobserwować na przełomie wieku i tu jest problem, bo zamiast zaprzestać pogoni za rdzeniami, nie rozwiązano podstawowego problemu z jakimi borykają się komputery od początku ich istnienia... chłodzenie. Nie spotkasz się też ze wspomnianym renderowaniem i lepszym komfortem pracy... lenistwo programistów jest silniejsze od chęci optymalizacji czegokolwiek. Dobrym przykładem są tu graficy komputerowi którzy dzisiaj robią strony parallax i nie ma w nich za grosz indywidualizmu czy kreatywności, to samo czeka programowanie. -------------------- Nie udzielam pomocy poprzez PW i nie mam GG.
Niektóre języki programowania, na przykład C# są znane z niezwykłej przenośności (kompatybilność ze wszystkimi wersjami Visty jest wiele warta). |
|
|
![]()
Post
#10
|
|
![]() Grupa: Zarejestrowani Postów: 417 Pomógł: 44 Dołączył: 23.06.2011 Ostrzeżenie: (0%) ![]() ![]() |
Problem obliczeniowy przy SI to jedno z najmniejszych zmartwień. Największym jest to, że komputery nie posiadają żadnych funkcji poznawczych a człowiek tak. Nie są to tylko zagadnienia z dziedziny algorytmiki itp. Tu głównie wchodzi wiedza o ludzkim mózgu. Sami mamy o nim bardzo małe pojęcie, praktycznie nie wiemy o 90% procesów które się w nim odbywają a tym bardziej jak się odbywają. Możemy co najwyżej na ta chwile gdybać, że jakieś zachodzą. Człowiek zawsze wzoruje się na przyrodzie i tak samo jest w tym przypadku. Wiemy ze za działanie funkcji poznawczych odpowiada jakiś fragment kory mózgu, ale nie mamy pojęcia, jak on dokładnie działa. Z tego powodu, póki co, nie uda nam się przenieść tego do naszyn. Inną kwestią są zagadnienia z szeroko pojętej psychologii. W głównej mierze chodzi o poziom świadomości (mogłem pomylić nazwe). Dziecko podobnie jak jak szympans posiada 3 poziom świadomości, wie ze jest, wie ze jest ktoś inny, wie, że ktoś inny wie, że dziecko jest. Dorosły człowiek jest na poziomie około 7. I tu jest pytanie, jak zaimplementować to w maszynie? Nad SI toczy się wiele dyskusji, bada to wielu ludzi którzy mają o tym pojęcie, nie to co my. W każdym razie, rzekome SI Google czy MS , to nic innego jak tylko analiza podanych na talerzu wielkich ilości danych.
|
|
|
![]()
Post
#11
|
|
![]() Grupa: Zarejestrowani Postów: 1 707 Pomógł: 266 Dołączył: 3.07.2012 Skąd: Poznań Ostrzeżenie: (0%) ![]() ![]() |
Posio, dokładnie jest tak jak mówisz. Sztuczna Inteligencja na przyzwoitym poziomie powstanie, kiedy to ludzie poznają czym tak naprawdę jest inteligencja i będą potrafili ją opisać. Ja jestem zdania, że algorytmicznie da się wyrazić absolutnie wszystko, łącznie z ludzkim zachowaniem, wliczając w to jego emocje, "nieracjonalne" zachowania i tak dalej. Ale nie chciałbym, żeby ta dyskusja była o sztucznej inteligencji, może stwórzmy do tego osobny temat.
!*!, twoje podejście jest totalnie antywizjonerskie, zresztą nie tylko twoje jak widać. Mówisz, że nigdy się nie spotkam z taką sytuacją, że zobaczę renderowanie w czasie 0 sekund, "bo lenistwo programistów". A potrafisz sobie wyobrazić taką sytuację, że sprzęty z ogromną nawiązką potrafią sprostać każdemu wyobrażalnemu problemowi? Nie mówię tu o jakichś obliczeniach dla naukowców, tylko o zastosowaniach domowych i ludzi z branży filmowej, graficznej itd. Jakie tu znaczenie ma lenistwo programistów? Dopóki ktoś celowo nie obciąży algorytmu miliardami niepotrzebnych operacji, to taki sprzęt dałby radę. Dzisiaj musimy się liczyć ze sprzętem, ale ja wierzę, że kiedyś tak nie będzie. Nie będzie trzeba oszczędzać na każdej operacji, bo tak jak mówiłem - to się nie będzie opłacało. Tak jak dzisiaj nie opłaca się na przykład oszczędzać bajtów na dysku i dlatego piszemy ładnie sformatowany kod, nie zastanawiamy się czy dajemy puste linie, czy chrzcimy zmienne długimi nazwami i tak dalej. To jest na tej samej zasadzie, tylko skala się zmienia. r4xz, Twojej wypowiedzi nie ogarniam, więc nie skomentuję. Zaskakuje mnie, że tak wielu z was ma tak zablokowaną wyobraźnię i jako punkt odniesienia traktuje teraźniejszość, czyli rok 2015. Nie potraficie dać się ponieść wyobraźni, a postęp traktujecie w kategoriach dokładania rdzeni. Z Takim nastawieniem, w latach 80-tych zostałbym wyśmiany, gdybym mówił o trójwymiarowych grach full hd, "bo przecież komputer musiałby być ogroooomny i by się spalił". No tak, Commodore 64 by się spalił. |
|
|
![]()
Post
#12
|
|
Grupa: Zarejestrowani Postów: 4 298 Pomógł: 447 Dołączył: 16.11.2006 Ostrzeżenie: (0%) ![]() ![]() |
@SmokAnalog - mylisz wizjonerstwo z realnymi możliwościami człowieka. Tekst o tym, że ogranicza Nas wyobraźnia jest może i dobry, ale dla piskliwych nastolatek
![]() -------------------- Nie udzielam pomocy poprzez PW i nie mam GG.
Niektóre języki programowania, na przykład C# są znane z niezwykłej przenośności (kompatybilność ze wszystkimi wersjami Visty jest wiele warta). |
|
|
![]()
Post
#13
|
|
Grupa: Zarejestrowani Postów: 6 806 Pomógł: 1828 Dołączył: 11.03.2014 Ostrzeżenie: (0%) ![]() ![]() |
Zaskakuje mnie, że tak wielu z was ma tak zablokowaną wyobraźnię i jako punkt odniesienia traktuje teraźniejszość, czyli rok 2015. Nie potraficie dać się ponieść wyobraźni, a postęp traktujecie w kategoriach dokładania rdzeni. Z Takim nastawieniem, w latach 80-tych zostałbym wyśmiany, gdybym mówił o trójwymiarowych grach full hd, "bo przecież komputer musiałby być ogroooomny i by się spalił". No tak, Commodore 64 by się spalił. https://www.youtube.com/watch?v=artEQkifGG0 -------------------- |
|
|
![]()
Post
#14
|
|
![]() Grupa: Zarejestrowani Postów: 1 707 Pomógł: 266 Dołączył: 3.07.2012 Skąd: Poznań Ostrzeżenie: (0%) ![]() ![]() |
!*! totalnie się nie zgadzam z ani jednym słowem
![]() |
|
|
![]()
Post
#15
|
|
![]() Grupa: Zarejestrowani Postów: 417 Pomógł: 44 Dołączył: 23.06.2011 Ostrzeżenie: (0%) ![]() ![]() |
Co do wydajności, niestety ale jestem trochę zwolennikiem teorii spiskowych i uważam, że procesory juz dawno mogły by być dużo szybsze, ale po co ? Przecież z tego jest hajs, i nikt się nie burzy ze jest mu za wolno. Kiedyś przyjdzie taki moment, że będzie popyt na coś dużo szybszego , ale wtedy też znajdzie się podaż. Historia pokazuje że człowiek tak na prawdę nie jest ograniczony niczym, oprócz własnych potrzeb. Co do np rozmiarów pamięci, w stosunku do mózgu dyski twarde itp potrafią przechować bardzo małą ilość danych. Moim zdaniem rozwiązaniem również jest poznanie jak informacje są przechowywane w mózgu, tyle, ze tego również nie wiemy. Póki co, jedyna opcja to tworzenie coraz większych i szybszych dysków czy pamięci. Ale być może, prawda jest taka, że problemem jest system cyfrowy. Prawda jest taka, że komputer jest próbą odwzorowania przez człowieka od podstaw w formie cyfrowej tego, nad czym natura pracowała miliardy lat.
@!*! Dobrze wiemy , że np taki PS czy inne wielkie profesjonalne programy nie są i nie będą nigdy przepisane od podstaw bo jest to nie opłacalne, to jest między innymi to o czym mówię między wierszami. Jest hajs, to człowiek nie będzie na siłę niczego ulepszal, tak właśnie branża softwareowa napędza hardwareowa. Proste jak budowa cepa , i w pełni się z Tobą zgadzam. Ten post edytował Posio 28.02.2015, 12:11:46 |
|
|
![]()
Post
#16
|
|
Grupa: Zarejestrowani Postów: 4 298 Pomógł: 447 Dołączył: 16.11.2006 Ostrzeżenie: (0%) ![]() ![]() |
Problemem jest to, że traktujesz dzisiejszy sprzęt jak coś szybkiego, to jest blokada przed pójściem dalej. Skaczą po rdzeniach jak szalone - taaa... Nie traktuję sprzętu jak coś szybkiego, nigdy tak nie było, bo zawsze są ograniczenia i to Ty tego nie pojmujesz. Pokaż mi w historii świata rzecz która się nie skończyła, jest elastyczna, prócz nawiązań do wszechświata która jest teorią ;) może ograniczając się do technologii. Przez tysiące lat nikt by nie wpadł na to, aby wcielić Twoją wizję w życie? Nie daje Ci to do myślenia? ;) -------------------- Nie udzielam pomocy poprzez PW i nie mam GG.
Niektóre języki programowania, na przykład C# są znane z niezwykłej przenośności (kompatybilność ze wszystkimi wersjami Visty jest wiele warta). |
|
|
![]()
Post
#17
|
|
![]() Grupa: Zarejestrowani Postów: 1 707 Pomógł: 266 Dołączył: 3.07.2012 Skąd: Poznań Ostrzeżenie: (0%) ![]() ![]() |
Historia pokazuje że człowiek tak na prawdę nie jest ograniczony niczym, oprócz własnych potrzeb. Ja to zdanie traktuję jak frazes. Człowiek jest ograniczony wieloma rzeczami, sam sposób funkcjonowania mózgu to wielkie ograniczenie, nie mówiąc już o niedoskonałości zmysłów. Z tym ograniczeniem przez rynek to oczywiście racja, ale blokadą są też - co sam powiedziałeś - ludzie. To, że "nie potrzebują więcej". Ludzie są z reguły mało wymagający i bardzo skażeni brakiem wyobraźni, co zresztą pokazują niektórzy w tym wątku. Jestem bardzo ciekaw jak potoczyłaby się ta dyskusja 20 lat temu. Jestem pewien, że niemal tak samo. "Nieee, przecież teraz są szybkie, nie potrzeba więcej". Nie traktuję sprzętu jak coś szybkiego, nigdy tak nie było, bo zawsze są ograniczenia i to Ty tego nie pojmujesz. Pokaż mi w historii świata rzecz która się nie skończyła, jest elastyczna, prócz nawiązań do wszechświata która jest teorią ;) może ograniczając się do technologii. Przez tysiące lat nikt by nie wpadł na to, aby wcielić Twoją wizję w życie? Nie daje Ci to do myślenia? ;) Zaraz mi ręce opadną ![]() Ten post edytował SmokAnalog 28.02.2015, 12:13:00 |
|
|
![]()
Post
#18
|
|
Grupa: Zarejestrowani Postów: 4 298 Pomógł: 447 Dołączył: 16.11.2006 Ostrzeżenie: (0%) ![]() ![]() |
Jestem bardzo ciekaw jak potoczyłaby się ta dyskusja 20 lat temu. Jestem pewien, że niemal tak samo. "Nieee, przecież teraz są szybkie, nie potrzeba więcej". I znowu mylisz wątki. Rozwój to jedno, a Ty chcesz w jego ramach stworzyć coś co będzie miało nieograniczone możliwości na potrzeby człowieka, a one same są nieograniczone i tu wpadasz w pętlę która wyklucza Twoją teorię. Zaraz mi ręce opadną :D Tak, przez tysiące lat nikt nie wpadł, żeby stworzyć Internet, czyli zgodnie z Twoim tokiem rozumowania, Internet jest niepotrzebny. Brawo! To internet jest nieograniczony? A to ciekawe... -------------------- Nie udzielam pomocy poprzez PW i nie mam GG.
Niektóre języki programowania, na przykład C# są znane z niezwykłej przenośności (kompatybilność ze wszystkimi wersjami Visty jest wiele warta). |
|
|
![]()
Post
#19
|
|
Grupa: Zarejestrowani Postów: 26 Pomógł: 10 Dołączył: 17.03.2012 Ostrzeżenie: (0%) ![]() ![]() |
Ktoś powie, że potrzeby będą rosły razem z wydajnością sprzętu. Zgadzam się, ale to nie jest równy wyścig. Jakość obrazu nie będzie szła do przodu w nieskończoność, bo ludzkie oko nie ma nieskończonej dokładności widzenia. Ilość danych nie będzie się zwiększała w nieskończoność, bo liczba ludzi na naszej planecie nie zdziesiątkuje się. To nie jest równy wyścig. Potrzeby będą rosły szybciej. Zawsze tak było. To, że nie jesteś w stanie sobie dzisiaj wyobrazić potrzeb przyszłości niczego nie zmienia. Twórcy komputerów też nie potrafili kiedyś wyobrazić sobie GUI, "po co - na co - karty perforowane są wystarczające". Dlatego komputery nie będą wystarczająco szybkie dopóki nie dojdziemy do singularity, a po tym momencie nie ma sensu niczego przewidywać i nad niczym się zastanawiać. |
|
|
![]()
Post
#20
|
|
Grupa: Zarejestrowani Postów: 675 Pomógł: 58 Dołączył: 17.12.2013 Ostrzeżenie: (10%) ![]() ![]() |
Cytat !*! totalnie się nie zgadzam z ani jednym słowem biggrin.gif Problemem jest to, że traktujesz dzisiejszy sprzęt jak coś szybkiego, to jest blokada przed pójściem dalej. Skaczą po rdzeniach jak szalone - taaa... Ja odnosze wrazenie ze Ty wszystkich wrzucasz do jednego worka traktujacych komputery inaczej niz Ty, !*! wyraznie Ci napisal o komputerze na USB80 z kosmiczna energia w srodku a Ty dalej stawiasz pod znakiem zapytania jego traktowanie dzisiejszego sprzetu. Daj na forum 20 przykladow czynnosci w ktorych Ty bys wykorzystal te super szybkie komputery, a potem niech ktos Ci w jednym zdaniu odpisze ze juz takie maszyny sa, tylko Cie nie stac, czyli dyskusja sprowadza sie do tego ze jestesmy pro cebule i mozemy jechac na i7 x 8gb do konca zycia. ![]() |
|
|
![]() ![]() |
![]() |
Aktualny czas: 19.08.2025 - 13:15 |