AK - zamknięte

 0    253 schede    patka1555
Stampa Gioca Testa il tuo livello
 
Domanda - Risposta -
Cechy architektury CISC: Czy może być wykonana w VLIW
inizia ad imparare
FAŁSZ
Cechy architektury CISC: Czy występuje model wymiany danych typu pamięć - pamięć
inizia ad imparare
PRAWDA
Cechy architektury CISC: Jest mała liczba rozkazów
inizia ad imparare
FAŁSZ
Cechy architektury RISC: Czy występuje model wymiany danych typu rej-rej
inizia ad imparare
PRAWDA
Cechy architektury RISC: Jest mała liczba trybów adresowania
inizia ad imparare
PRAWDA
Cechy architektury RISC: Jest wykonywanych kilka rozkazów w jednym takcie
inizia ad imparare
FAŁSZ
Cechy architektury RISC: Jest wykonywanych kilka rozkazów w jednym takcie (w danej chwili czasu)
inizia ad imparare
PRAWDA
Cechy architektury RISC: Jest wykonywanych kilka instrukcji procesora w jednym rozkazie asemblerowym
inizia ad imparare
FAŁSZ
Cechy architektury RISC: Układ sterowania w postaci logiki szytej
inizia ad imparare
PRAWDA
Architektura RISC charakteryzuje się: Niedużą liczbą trybów adresowania
inizia ad imparare
PRAWDA
Architektura RISC charakteryzuje się: Modelem obliczeń pamięć - pamięć
inizia ad imparare
FAŁSZ
Architektura RISC charakteryzuje się: Wykorzystaniem mikroprogramowalnych układów sterujących
inizia ad imparare
FAŁSZ
Architektura RISC charakteryzuje się: Niezbyt obszerną listą rozkazów
inizia ad imparare
PRAWDA
Architektura RISC charakteryzuje się: Intensywnym wykorzystaniem przetwarzania potokowego
inizia ad imparare
PRAWDA
Okna rejestrów: Chronią przez hazardem danych
inizia ad imparare
FAŁSZ
Okna rejestrów: Minimalizują liczbę odwołań do pamięci operacyjnej przy operacjach wywołania procedur
inizia ad imparare
PRAWDA
Okna rejestrów: Są charakterystyczne dla architektury CISC
inizia ad imparare
FAŁSZ
Okna rejestrów: Są zamykane po błędnym przewidywaniu wykonania skoków warunkowych
inizia ad imparare
FAŁSZ
Okna rejestrów: Są przesuwane przy operacjach wywołania procedur
inizia ad imparare
PRAWDA
Okna rejestrów: Są przesuwane przy wystąpieniu rozkazów rozgałęzień
inizia ad imparare
FAŁSZ
Okna rejestrów: Są otwierane przy występowaniu rozkazów rozgałęzień.
inizia ad imparare
FAŁSZ
Przetwarzanie potokowe: Nie jest realizowane dla operacji zmiennoprzecinkowych
inizia ad imparare
FAŁSZ
Przetwarzanie potokowe: Nie jest realizowane w procesorach CISC
inizia ad imparare
FAŁSZ
Przetwarzanie potokowe: Daje przyspieszenie nie większe od liczby segmentów (stopni) jednostki potokowej
inizia ad imparare
PRAWDA
Przetwarzanie potokowe: W przypadku wystąpienia zależności między danymi wywołuje błąd i przerwanie wewnętrzne.
inizia ad imparare
FAŁSZ
Przetwarzanie potokowe: Jest realizowane tylko dla operacji zmiennoprzecinkowych
inizia ad imparare
FAŁSZ
Mechanizmy potokowe stosowane są w celu: Uszeregowania ciągu wykonywanych rozkazów
inizia ad imparare
FAŁSZ
Mechanizmy potokowe stosowane są w celu: Uzyskania równoległej realizacji rozkazów
inizia ad imparare
PRAWDA
Mechanizmy potokowe stosowane są w celu: Przyspieszenia realizacji rozkazów
inizia ad imparare
PRAWDA
Hazard danych: Czasami może być usunięty przez zmianę kolejności wykonania rozkazów
inizia ad imparare
PRAWDA
Hazard danych: Nie występuje w architekturze superskalarnej
inizia ad imparare
FAŁSZ
Hazard danych: Jest eliminowany przez zastosowanie specjalnego bitu w kodzie program
inizia ad imparare
FAŁSZ
Hazard danych: Może wymagać wyczyszczenia potoku i rozpoczęcia nowej (...)
inizia ad imparare
FAŁSZ
Jak można ominąć hazard danych: Poprzez uproszczenie adresowania - adresowanie bezpośrednie.
inizia ad imparare
FAŁSZ
Dla uniknięcia hazardu danych można: Zastosować uproszczone metody adresacji.
inizia ad imparare
FAŁSZ
Dla uniknięcia hazardu danych można: Wykorzystać szynę zwrotną.
inizia ad imparare
PRAWDA
Dla uniknięcia hazardu danych można: Zastosować specjalny bit w kodzie rozkazu.
inizia ad imparare
FAŁSZ
Dla uniknięcia hazardu danych można: Zastosować tablicę historii rozgałęzień.
inizia ad imparare
FAŁSZ
Dla uniknięcia hazardu danych można: Wstrzymać na 1 takt napełnianie potoku.
inizia ad imparare
PRAWDA
Mechanizm skoków opóźnionych: Polega na opóźnianiu wykonywania skoku do czasu wykonania rozkazu następnego za skokiem
inizia ad imparare
PRAWDA
Mechanizm skoków opóźnionych: Wymaga wstrzymania potoku na jeden takt.
inizia ad imparare
FAŁSZ
Mechanizm skoków opóźnionych: Powoduje błąd na końcu pętli
inizia ad imparare
FAŁSZ
Mechanizm skoków opóźnionych: Wymaga umieszczenia rozkazu NOP za rozkazem skoku lub reorganizacje programu
inizia ad imparare
PRAWDA
Tablica historii rozgałęzień: Zawiera m.in. adresy rozkazów rozgałęzień
inizia ad imparare
PRAWDA
Tablica historii rozgałęzień: Pozwala zminimalizować liczbę błędnych przewidywań rozgałęzień w zagnieżdżonej pętli
inizia ad imparare
PRAWDA
Tablica historii rozgałęzień: Nie może być stosowana w procesorach CISC
inizia ad imparare
FAŁSZ
Tablica historii rozgałęzień: Jest obsługiwana przez jądro systemu operacyjnego
inizia ad imparare
FAŁSZ
Tablica historii rozgałęzień: Jest stosowana do statycznego przewidywania rozgałęzień
inizia ad imparare
FAŁSZ
Tablica historii rozgałęzień: Pozwala zapamiętać całą historię wykonań każdego rozkazu rozgałęzienia.
inizia ad imparare
FAŁSZ
W tablicy historii rozgałęzień z 1 bitem historii można zastosować następujący algorytm przewidywania (najbardziej złożony): Skok opóźniony
inizia ad imparare
FAŁSZ
W tablicy historii rozgałęzień z 1 bitem historii można zastosować następujący algorytm przewidywania (najbardziej złożony): Przewidywanie, że rozgałęzienie (skok warunkowy) zawsze nastąpi
inizia ad imparare
FAŁSZ
W tablicy historii rozgałęzień z 1 bitem historii można zastosować następujący algorytm przewidywania (najbardziej złożony): Przewidywanie, że rozgałęzienie nigdy nie nastąpi
inizia ad imparare
FAŁSZ
W tablicy historii rozgałęzień z 1 bitem historii można zastosować następujący algorytm przewidywania (najbardziej złożony): Przewidywanie, że kolejne wykonanie rozkazu rozgałęzienia będzie przebiegało tak samo jak poprzednie
inizia ad imparare
PRAWDA
W tablicy historii rozgałęzień z 1 bitem historii można zastosować następujący algorytm przewidywania (najbardziej złożony): Wstrzymanie napełniania potoku
inizia ad imparare
FAŁSZ
Problemy z potokowym wykonywaniem rozkazów skoków (rozgałęzień) mogą być wyeliminowane lub ograniczone przy pomocy: Zapewnienia spójności pamięci podręcznej
inizia ad imparare
FAŁSZ
Problemy z potokowym wykonywaniem rozkazów skoków (rozgałęzień) mogą być wyeliminowane lub ograniczone przy pomocy: Tablicy historii rozgałęzień
inizia ad imparare
PRAWDA
Problemy z potokowym wykonywaniem rozkazów skoków (rozgałęzień) mogą być wyeliminowane lub ograniczone przy pomocy: Techniki wyprzedzającego pobrania argumentu
inizia ad imparare
FAŁSZ
Problemy z potokowym wykonywaniem rozkazów skoków (rozgałęzień) mogą być wyeliminowane lub ograniczone przy pomocy: Wystawienia do programu rozkazów typu „nic nie rób”
inizia ad imparare
PRAWDA
Problemy z potokowym wykonywaniem rozkazów skoków (rozgałęzień) mogą być wyeliminowane lub ograniczone przy pomocy: Protokołu MESI
inizia ad imparare
FAŁSZ
Problemy z potokowym wykonywaniem rozkazów skoków (rozgałęzień) mogą być wyeliminowane lub ograniczone przy pomocy: Wykorzystania techniki skoków opóźniających
inizia ad imparare
PRAWDA
Problemy z potokowym wykonywaniem rozkazów skoków (rozgałęzień) mogą być wyeliminowane lub ograniczone przy pomocy: Technologii MMX
inizia ad imparare
FAŁSZ
Konsekwencją błędu przy przewidywaniu rozgałęzień może być: Wstrzymanie realizowanego wątku i przejście do realizacji innego wątku
inizia ad imparare
FAŁSZ
Konsekwencją błędu przy przewidywaniu rozgałęzień może być: Konieczność wyczyszczenia kolejki rozkazów do potoku
inizia ad imparare
PRAWDA
Konsekwencją błędu przy przewidywaniu rozgałęzień może być: Konieczność wyczyszczenia tablicy historii rozgałęzień
inizia ad imparare
FAŁSZ
Konsekwencją błędu przy przewidywaniu rozgałęzień może być: Przerwanie realizowanego procesu / wątku i sygnalizacja wyjątku
inizia ad imparare
FAŁSZ
Konsekwencją błędu przy przewidywaniu rozgałęzień może być: Konieczność przemianowania rejestrów w procesorach
inizia ad imparare
FAŁSZ
W procesorach superskalarnych: Liczba rozkazów, które procesor może wykonać w 1 takcie zależy od liczby jednostek potokowych w procesorze
inizia ad imparare
PRAWDA
W procesorach superskalarnych: Liczba rozkazów, które procesor może wykonać w jednym takcie, zależy od liczby stopni potoku.
inizia ad imparare
FAŁSZ
W procesorach superskalarnych: Liczba rozkazów pobieranych z pamięci, w każdym takcie musi przekraczać liczbę jednostek potokowych
inizia ad imparare
FAŁSZ
W procesorach superskalarnych: Liczba rozkazów, które procesor może wykonać w taktach zależy od liczby jednostek potokowych w procesorze
inizia ad imparare
PRAWDA
W procesorach superskalarnych: Jest możliwe równoległe wykonywanie kilku rozkazów w jednym procesorze (rdzeniu)
inizia ad imparare
PRAWDA
W procesorach superskalarnych: Rozszerzenia architektury wykorzystujące model SIMD umożliwiają wykonanie rozkazów wektorowych
inizia ad imparare
PRAWDA
W procesorach superskalarnych: Nie występuje prawdziwa zależność danych
inizia ad imparare
FAŁSZ
W procesorach superskalarnych: Mogą wystąpić nowe formy hazardu danych: zależności wyjściowe między rozkazami oraz antyzależności
inizia ad imparare
PRAWDA
W procesorach superskalarnych: Nie występuje hazard danych (problemy z potokowym wykonaniem rozkazów o zależnych argumentach).
inizia ad imparare
FAŁSZ
W procesorach superskalarnych: Hazard sterowania jest całkowicie eliminowany przez statyczne strategie przewidywania rozgałęzień.
inizia ad imparare
FAŁSZ
Architektura superskalarna: Dotyczy systemów SMP
inizia ad imparare
FAŁSZ
Architektura superskalarna: Wymaga zastosowania protokołu MESI
inizia ad imparare
FAŁSZ
Architektura superskalarna: Umożliwia równoległe wykonywanie kilku rozkazów w jednym procesorze
inizia ad imparare
PRAWDA
Architektura superskalarna: Wywodzi się z architektury VLIW
inizia ad imparare
FAŁSZ
Architektura superskalarna: Wykorzystuje wiele potokowych jednostek funkcjonalnych
inizia ad imparare
PRAWDA
Architektura superskalarna: Nie dopuszcza do wystąpienia hazardu sterowania
inizia ad imparare
FAŁSZ
Architektura superskalarna: Umożliwia wykonanie wielu rozkazów w jednym takcie
inizia ad imparare
PRAWDA
Architektura superskalarna: Wykorzystuje model obliczeń pamięć - pamięć
inizia ad imparare
FAŁSZ
Architektura superskalarna: Jest stosowana tylko w procesorach wielordzeniowych
inizia ad imparare
FAŁSZ
Przetwarzanie wielowątkowe: Zapewnia lepsze wykorzystanie potoków
inizia ad imparare
PRAWDA
Przetwarzanie wielowątkowe: Minimalizuje straty wynikające z chybionych odwołań do pamięci podręcznej
inizia ad imparare
PRAWDA
Przetwarzanie wielowątkowe: Wymaga zwielokrotnienia zasobów procesora (rejestry, liczniki rozkazów, itp.)
inizia ad imparare
PRAWDA
Przetwarzanie wielowątkowe: Nie może być stosowane w przypadku hazardu danych
inizia ad imparare
FAŁSZ
Pojęcie równoległości na poziomie rozkazów: Dotyczy architektury MIMD
inizia ad imparare
FAŁSZ
Pojęcie równoległości na poziomie rozkazów: Odnosi się m.in. do przetwarzania potokowego
inizia ad imparare
PRAWDA
Pojęcie równoległości na poziomie rozkazów: Dotyczy architektury MPP
inizia ad imparare
FAŁSZ
Pojęcie równoległości na poziomie rozkazów: Dotyczy m.in. architektury superskalarnej
inizia ad imparare
PRAWDA
Efektywne wykorzystanie równoległości na poziomie danych umożliwiają: Komputery wektorowe
inizia ad imparare
PRAWDA
Efektywne wykorzystanie równoległości na poziomie danych umożliwiają: Komputery macierzowe
inizia ad imparare
PRAWDA
Efektywne wykorzystanie równoległości na poziomie danych umożliwiają: Klastry
inizia ad imparare
PRAWDA
Efektywne wykorzystanie równoległości na poziomie danych umożliwiają: Procesory graficzne
inizia ad imparare
PRAWDA
Efektywne wykorzystanie równoległości na poziomie danych umożliwiają: Rozszerzenia SIMD procesorów superskalarnych
inizia ad imparare
PRAWDA
Wielowątkowość współbieżna w procesorze wielopotokowym zapewnia: Możliwość wprowadzenia rozkazów różnych wątków do wielu potoków
inizia ad imparare
PRAWDA
Wielowątkowość współbieżna w procesorze wielopotokowym zapewnia: Realizację każdego z wątków do momentu wstrzymania któregoś rozkazu z danego wątku
inizia ad imparare
PRAWDA
Wielowątkowość współbieżna w procesorze wielopotokowym zapewnia: Przełączanie wątków co takt
inizia ad imparare
FAŁSZ
Wielowątkowość współbieżna w procesorze wielopotokowym zapewnia: Automatyczne przemianowanie rejestrów
inizia ad imparare
FAŁSZ
Metoda przemianowania rejestrów jest stosowana w celu eliminacji: Błędnego przewidywania rozgałęzień
inizia ad imparare
FAŁSZ
Metoda przemianowania rejestrów jest stosowana w celu eliminacji: Chybionego odwołania do pamięci podręcznej
inizia ad imparare
FAŁSZ
Metoda przemianowania rejestrów jest stosowana w celu eliminacji: Prawdziwej zależności danych
inizia ad imparare
FAŁSZ
Metoda przemianowania rejestrów jest stosowana w celu eliminacji: Zależności wyjściowej między rozkazami
inizia ad imparare
PRAWDA
Metoda przemianowania rejestrów jest stosowana w celu eliminacji: Antyzależności między rozkazami
inizia ad imparare
PRAWDA
Wyprzedzające pobranie argumentu pozwala rozwiązać konflikt wynikający z: Zależności wyjściowej miedzy rozkazami
inizia ad imparare
FAŁSZ
Wyprzedzające pobranie argumentu pozwala rozwiązać konflikt wynikający z: Prawdziwej zależności danych
inizia ad imparare
PRAWDA
Wyprzedzające pobranie argumentu pozwala rozwiązać konflikt wynikający z: Błędnego przewidywania rozgałęzień
inizia ad imparare
FAŁSZ
Wyprzedzające pobranie argumentu pozwala rozwiązać konflikt wynikający z: Antyzależności miedzy rozkazami
inizia ad imparare
PRAWDA
Przepustowość (moc obliczeniowa) dużych komputerów jest podawana w: GFLOPS
inizia ad imparare
PRAWDA
Przepustowość (moc obliczeniowa) dużych komputerów jest podawana w: Liczbie instrukcji wykonywanych na sekundę
inizia ad imparare
FAŁSZ
Przepustowość (moc obliczeniowa) dużych komputerów jest podawana w: Liczbie operacji zmiennoprzecinkowych na sekundę
inizia ad imparare
PRAWDA
Przepustowość (moc obliczeniowa) dużych komputerów jest podawana w: Mb/sek
inizia ad imparare
FAŁSZ
Podstawą klasyfikacji Flynna jest: Liczba jednostek przetwarzających i sterujących w systemach komputerowych
inizia ad imparare
FAŁSZ
Podstawą klasyfikacji Flynna jest: Protokół dostępu do pamięci operacyjnej
inizia ad imparare
FAŁSZ
Podstawą klasyfikacji Flynna jest: Liczba modułów pamięci operacyjnej w systemach komputerowych
inizia ad imparare
FAŁSZ
Podstawą klasyfikacji Flynna jest: Sposób połączenia jednostek przetwarzających z modułami pamięci operacyjnej.
inizia ad imparare
FAŁSZ
Podstawą klasyfikacji Flynna jest: Liczba strumieni rozkazów i danych w systemach komputerowych
inizia ad imparare
PRAWDA
Model SIMD: Był wykorzystywany tylko w procesorach macierzowych
inizia ad imparare
FAŁSZ
Model SIMD: Jest wykorzystywany w multimedialnych rozszerzeniach współczesnych procesorów
inizia ad imparare
PRAWDA
Model SIMD: Jest wykorzystywany w heterogenicznej architekturze PowerXCell
inizia ad imparare
PRAWDA
Model SIMD: Zapewnia wykonanie tej samej operacji na wektorach argumentów
inizia ad imparare
PRAWDA
Model SIMD: Jest podstawą rozkazów wektorowych
inizia ad imparare
PRAWDA
Model SIMD: Jest podstawą architektury procesorów superskalarnych
inizia ad imparare
FAŁSZ
Komputery wektorowe: Posiadają jednostki potokowe o budowie wektorowej
inizia ad imparare
FAŁSZ
Komputery wektorowe: Posiadają w liście rozkazów m.in. rozkazy operujące na wektorach danych
inizia ad imparare
PRAWDA
Komputery wektorowe: Wykorzystują od kilku do kilkunastu potokowych jednostek arytmetycznych
inizia ad imparare
PRAWDA
Komputery wektorowe: Posiadają listę rozkazów operujących wyłącznie na wektorach
inizia ad imparare
FAŁSZ
Moc obliczeniowa komputerów wektorowych: Zależy od liczby stopni potoku
inizia ad imparare
FAŁSZ
Moc obliczeniowa komputerów wektorowych: Jest odwrotnie proporcjonalna do długości taktu zegarowego
inizia ad imparare
PRAWDA
Moc obliczeniowa komputerów wektorowych: Jest wprost proporcjonalna do długości taktu zegarowego
inizia ad imparare
FAŁSZ
Moc obliczeniowa komputerów wektorowych: Zależy odwrotnie proporcjonalnie od liczby jednostek potokowych połączonych łańcuchowo
inizia ad imparare
FAŁSZ
Moc obliczeniowa komputerów wektorowych: Zmierza asymptotycznie do wartości maksymalnej wraz ze wzrostem długości wektora
inizia ad imparare
PRAWDA
Moc obliczeniowa komputerów wektorowych: Zależy liniowo od długości wektora
inizia ad imparare
FAŁSZ
Moc obliczeniowa komputerów wektorowych: Nie zależy od długości wektora
inizia ad imparare
FAŁSZ
Procesory wektorowe: Mogą być stosowane w systemach wieloprocesorowych
inizia ad imparare
PRAWDA
Procesory wektorowe: Mają listę rozkazów operującą jedynie na wektorach
inizia ad imparare
FAŁSZ
Procesory wektorowe: Mają moc kilka razy większą od procesorów skalarnych
inizia ad imparare
PRAWDA
Komputery macierzowe: Mają w liście rozkazów m.in. rozkazy operujące na wektorach danych
inizia ad imparare
PRAWDA
Komputery macierzowe: Mają macierzowe potokowe układy arytmetyczne
inizia ad imparare
FAŁSZ
Komputery macierzowe: Mają w typowych rozwiązaniach zestaw pełnych procesów połączonych siecią połączeń
inizia ad imparare
FAŁSZ
Komputery macierzowe: Wykonują synchroniczną operację wektorową w sieci elementów przetwarzających
inizia ad imparare
PRAWDA
Rozkazy wektorowe mogą być realizowane przy wykorzystaniu: Macierzy elementów przetwarzających
inizia ad imparare
PRAWDA
Rozkazy wektorowe mogą być realizowane przy wykorzystaniu: Zestawu procesorów superskalarnych
inizia ad imparare
FAŁSZ
Rozkazy wektorowe mogą być realizowane przy wykorzystaniu: Technologii MMX
inizia ad imparare
PRAWDA
Rozkazy wektorowe mogą być realizowane przy wykorzystaniu: Sieci połączeń typu krata
inizia ad imparare
FAŁSZ
Rozkazy wektorowe mogą być realizowane przy wykorzystaniu: Potokowych jednostek arytmetycznych
inizia ad imparare
PRAWDA
Rozkazy wektorowe: Nie mogą być wykonywane bez użycia potokowych jednostek arytmetycznych
inizia ad imparare
FAŁSZ
Rozkazy wektorowe: Są charakterystyczne dla architektury SIMD
inizia ad imparare
PRAWDA
Rozkazy wektorowe: Są rozkazami dwuargumentowymi i w wyniku zawsze dają wektor
inizia ad imparare
FAŁSZ
Rozkazy wektorowe: W komputerach wektorowych ich czas wykonania jest wprost proporcjonalny do długości wektora
inizia ad imparare
PRAWDA
Rozkazy wektorowe: W komputerach wektorowych ich czas wykonania jest liniowo zależny od długości wektora
inizia ad imparare
FAŁSZ
Rozkazy wektorowe: W komputerach macierzowych ich czas wykonania jest wprost proporcjonalny do liczby elementów przetwarzających
inizia ad imparare
FAŁSZ
Rozkazy wektorowe: Mogą być wykonane na sieci elementów przetwarzających
inizia ad imparare
PRAWDA
Architektura CUDA: Umożliwia bardzo wydajne wykonywanie operacji graficznych
inizia ad imparare
PRAWDA
Architektura CUDA: Stanowi uniwersalną architekturę obliczeniowa połączoną z równoległym modelem programistycznym
inizia ad imparare
PRAWDA
Architektura CUDA: Realizuje model obliczeniowy SIMT
inizia ad imparare
PRAWDA
Architektura CUDA: Jest podstawą budowy samodzielnych, bardzo wydajnych komputerów
inizia ad imparare
FAŁSZ
Systemy SMP: Wykorzystują protokół MESI do sterowania dostępem do wspólnej magistrali
inizia ad imparare
FAŁSZ
Systemy SMP: Posiadają skalowalne procesory
inizia ad imparare
FAŁSZ
Systemy SMP: Posiadają pamięć fizycznie rozproszoną, ale logicznie wspólną
inizia ad imparare
FAŁSZ
Systemy wieloprocesorowe z jednorodnym dostępem do pamięci (UMA): Zapewniają spójność pamięci podręcznych wszystkich procesorów
inizia ad imparare
PRAWDA
Systemy wieloprocesorowe z jednorodnym dostępem do pamięci (UMA): Mają niską skalowalność
inizia ad imparare
PRAWDA
Systemy wieloprocesorowe z jednorodnym dostępem do pamięci (UMA): Wykorzystują katalog do utrzymania spójności pamięci
inizia ad imparare
PRAWDA
Systemy wieloprocesorowe z jednorodnym dostępem do pamięci (UMA): Wykorzystują przesył komunikatów między procesorami
inizia ad imparare
FAŁSZ
Systemy wieloprocesorowe z jednorodnym dostępem do pamięci (UMA): Umożliwiają dostęp do pamięci najczęściej poprzez wspólną magistralę lub przełącznicę krzyżową
inizia ad imparare
PRAWDA
Protokół MESI: Jest wykorzystywany do sterowania dostępem do magistrali w systemie SMP
inizia ad imparare
FAŁSZ
Protokół MESI: Zapewnia spójność pamięci cache w systemie SMP
inizia ad imparare
PRAWDA
Protokół MESI: Służy do wymiany komunikatów w systemie MPP
inizia ad imparare
FAŁSZ
Protokół MESI: Chroni przed hazardem w procesorach superskalarnych
inizia ad imparare
FAŁSZ
W architekturze NUMA: Dane są wymieniane między węzłami w postaci linii pamięci podręcznej (PaP)
inizia ad imparare
PRAWDA
W architekturze NUMA: Spójność PaP węzłów jest utrzymywana za pomocą protokołu MESI
inizia ad imparare
FAŁSZ
W architekturze NUMA: Czas dostępu do pamięci lokalnej w węźle jest podobny do czasu dostępu do pamięci nielokalnej
inizia ad imparare
FAŁSZ
W architekturze NUMA: Czas zapisu danych do pamięci nielokalnej może być znacznie dłuższy od czasu odczytu z tej pamięci
inizia ad imparare
PRAWDA
W architekturze NUMA: Każdy procesor ma dostęp do pamięci operacyjnej każdego węzła
inizia ad imparare
PRAWDA
W architekturze NUMA: Procesy komunikują się poprzez przesył komunikatów
inizia ad imparare
FAŁSZ
W architekturze NUMA: Pamięć operacyjna jest rozproszona fizycznie pomiędzy węzłami, ale wspólna logicznie
inizia ad imparare
PRAWDA
W architekturze CC-NUMA: Każdy procesor ma dostęp do pamięci operacyjnej każdego węzła
inizia ad imparare
PRAWDA
W architekturze CC-NUMA: Spójność pamięci pomiędzy węzłami jest utrzymywana za pomocą protokołu MESI
inizia ad imparare
FAŁSZ
W architekturze CC-NUMA: Dane są wymieniane między węzłami w postaci linii pamięci podręcznej
inizia ad imparare
PRAWDA
W architekturze CC-NUMA: Pamięć operacyjna jest fizycznie rozproszona pomiędzy węzłami, ale wspólna logicznie
inizia ad imparare
PRAWDA
W systemach wieloprocesorowych o architekturze CC-NUMA: Spójność pamięci wszystkich węzłów jest utrzymywana za pomocą katalogu
inizia ad imparare
PRAWDA
W systemach wieloprocesorowych o architekturze CC-NUMA: Pamięć operacyjna jest rozproszona fizycznie pomiędzy węzłami, ale wspólna logicznie
inizia ad imparare
PRAWDA
W systemach wieloprocesorowych o architekturze CC-NUMA: Każdy procesor ma bezpośredni dostęp do pamięci operacyjnej każdego węzła
inizia ad imparare
FAŁSZ
W systemach wieloprocesorowych o architekturze CC-NUMA: Dane są wymieniane między węzłami w postaci linii pamięci podręcznej
inizia ad imparare
PRAWDA
W architekturze CC-NUMA czas dostępu do pamięci operacyjnej może zależeć od: Rodzaju dostępu (odczyt - zapis)
inizia ad imparare
PRAWDA
W architekturze CC-NUMA czas dostępu do pamięci operacyjnej może zależeć od: Stanu linii (zapisanego w katalogu), do której następuje odwołanie
inizia ad imparare
FAŁSZ
W architekturze CC-NUMA czas dostępu do pamięci operacyjnej może zależeć od: Położenia komórki, do której odwołuje się rozkaz (lokalna pamięć węzła – pamięć innego węzła)
inizia ad imparare
PRAWDA
W architekturze CC-NUMA czas dostępu do pamięci operacyjnej może zależeć od: Odległości węzłów, zaangażowanych w wykonanie rozkazu, w strukturze sieci łączącej
inizia ad imparare
FAŁSZ
Katalog może być stosowany do: Utrzymania spójności pamięci podręcznych poziomu L1 i L2 w procesorach wielordzeniowych
inizia ad imparare
FAŁSZ
Katalog może być stosowany do: Utrzymania spójności pamięci wszystkich węzłów w systemach CC-NUMA
inizia ad imparare
PRAWDA
Katalog może być stosowany do: Sterowania realizacją wątków w architekturze CUDA
inizia ad imparare
FAŁSZ
Spójność pamięci podręcznych w procesorze wielordzeniowym może być m.in. zapewniona za pomocą: Przełącznicy krzyżowej
inizia ad imparare
FAŁSZ
Spójność pamięci podręcznych w procesorze wielordzeniowym może być m.in. zapewniona za pomocą: Katalogu
inizia ad imparare
PRAWDA
Spójność pamięci podręcznych w procesorze wielordzeniowym może być m.in. zapewniona za pomocą: Protokołu MESI
inizia ad imparare
PRAWDA
Spójność pamięci podręcznych w procesorze wielordzeniowym może być m.in. zapewniona za pomocą: Wspólnej magistrali
inizia ad imparare
FAŁSZ
Systemy wieloprocesorowe z pamięcią wspólną: Zapewniają jednorodny dostęp do pamięci
inizia ad imparare
FAŁSZ
Systemy wieloprocesorowe z pamięcią wspólną: Mogą wykorzystywać procesory CISC
inizia ad imparare
PRAWDA
Systemy wieloprocesorowe z pamięcią wspólną: Są wykorzystywane w klastrach
inizia ad imparare
PRAWDA
Systemy wieloprocesorowe z pamięcią wspólną: Wykorzystują przesył komunikatów między procesorami
inizia ad imparare
FAŁSZ
Systemy wieloprocesorowe z pamięcią wspólną: Wykorzystują katalog do utrzymania spójności pamięci podręcznych
inizia ad imparare
PRAWDA
W systemach wieloprocesorowych katalog służy do: Śledzenia adresów w protokole MESI
inizia ad imparare
FAŁSZ
W systemach wieloprocesorowych katalog służy do: Sterowania przesyłem komunikatów Utrzymania spójności pamięci w systemach o niejednorodnym dostępie do pamięci
inizia ad imparare
FAŁSZ
W systemach wieloprocesorowych katalog służy do:
inizia ad imparare
PRAWDA
W systemach wieloprocesorowych katalog służy do: Realizacji dostępu do nielokalnych pamięci w systemach NUMA
inizia ad imparare
PRAWDA
Charakterystyczne cechy architektury MPP: Spójność pamięci podręcznej wszystkich węzłów
inizia ad imparare
FAŁSZ
Charakterystyczne cechy architektury MPP: Fizycznie rozproszona PaO
inizia ad imparare
PRAWDA
Charakterystyczne cechy architektury MPP: Fizycznie rozproszona PaO, ale logicznie wspólna
inizia ad imparare
FAŁSZ
Charakterystyczne cechy architektury MPP: Przesył komunikatów między procesorami
inizia ad imparare
PRAWDA
Charakterystyczne cechy architektury MPP: Niska skalowalność
inizia ad imparare
FAŁSZ
Charakterystyczne cechy architektury MPP: Jednorodny dostęp do pamięci wszystkich węzłów
inizia ad imparare
FAŁSZ
Systemy pamięcią rozproszoną (MPP): Wyróżniają się bardzo dużą skalowalnością
inizia ad imparare
PRAWDA
Systemy pamięcią rozproszoną (MPP): Są budowane z węzłów, którymi są klastry
inizia ad imparare
FAŁSZ
Systemy pamięcią rozproszoną (MPP): Realizują synchronicznie jeden wspólny program
inizia ad imparare
FAŁSZ
Systemy pamięcią rozproszoną (MPP): Wymagają zapewnienia spójności pamięci podręcznych pomiędzy węzłami
inizia ad imparare
FAŁSZ
Systemy pamięcią rozproszoną (MPP): Wymianę danych i synchronizację procesów w węzłach realizują poprzez przesył komunikatów
inizia ad imparare
PRAWDA
Systemy pamięcią rozproszoną (MPP): W większości przypadków wykorzystują nietypowe, firmowe rozwiązania sieci łączących węzły systemu
inizia ad imparare
FAŁSZ
Systemy pamięcią rozproszoną (MPP): Wykorzystują katalog do utrzymania spójności pamięci węzłów systemu
inizia ad imparare
FAŁSZ
Systemy pamięcią rozproszoną (MPP): W roli węzłów mogą wykorzystywać systemy SMP
inizia ad imparare
PRAWDA
Systemy MPP są zbudowane z węzłów którymi mogą być: Systemy SMP
inizia ad imparare
PRAWDA
Systemy MPP są zbudowane z węzłów którymi mogą być: Klastry
inizia ad imparare
FAŁSZ
Systemy MPP są zbudowane z węzłów którymi mogą być: Konstelacje
inizia ad imparare
FAŁSZ
Systemy MPP są zbudowane z węzłów którymi mogą być: Systemy NUMA
inizia ad imparare
PRAWDA
Systemy MPP są zbudowane z węzłów którymi mogą być: Procesory
inizia ad imparare
PRAWDA
Przesył komunikatów: Ma miejsce w systemach MPP
inizia ad imparare
PRAWDA
Przesył komunikatów: W systemach MPP II-giej generacji angażuje wszystkie procesory na drodze przesyłu
inizia ad imparare
FAŁSZ
Przesył komunikatów: Ma miejsce w klastrach
inizia ad imparare
PRAWDA
Cechami wyróżniającymi klastry są: Niezależność programowa każdego węzła
inizia ad imparare
PRAWDA
Cechami wyróżniającymi klastry są: Fizycznie rozproszona, ale logicznie wspólna pamięć operacyjna
inizia ad imparare
FAŁSZ
Cechami wyróżniającymi klastry są: Nieduża skalowalność
inizia ad imparare
FAŁSZ
Cechami wyróżniającymi klastry są: Na ogół duża niezawodność
inizia ad imparare
PRAWDA
Klastry: Mają średnią skalowalność
inizia ad imparare
FAŁSZ
Klastry: Wykorzystują model wspólnej pamięci
inizia ad imparare
FAŁSZ
Klastry: W węzłach mogą wykorzystywać systemy SMP
inizia ad imparare
PRAWDA
Klastry: Do komunikacji między procesami wykorzystują przesył komunikatów
inizia ad imparare
PRAWDA
Klastry: Wykorzystują przełącznicę krzyżową jako sieć łączącą węzły
inizia ad imparare
FAŁSZ
Klastry: W każdym węźle posiadają pełną instalację systemu operacyjnego
inizia ad imparare
PRAWDA
Do czynników tworzących wysoką niezawodność klastrów należą: Mechanizm mirroringu dysków
inizia ad imparare
PRAWDA
Do czynników tworzących wysoką niezawodność klastrów należą: Dostęp każdego węzła do wspólnych zasobów (pamięci zewnętrznych)
inizia ad imparare
PRAWDA
Do czynników tworzących wysoką niezawodność klastrów należą: Redundancja węzłów
inizia ad imparare
PRAWDA
Do czynników tworzących wysoką niezawodność klastrów należą: Mechanizm ”heartbeat”
inizia ad imparare
PRAWDA
Do czynników tworzących wysoką niezawodność klastrów należą: Zastosowanie procesorów wielordzeniowych w węzłach
inizia ad imparare
FAŁSZ
Dla sieci systemowych (SAN) są charakterystyczne: Przesył komunikatów w trybie zdalnego DMA
inizia ad imparare
PRAWDA
Dla sieci systemowych (SAN) są charakterystyczne: Bardzo małe czasy opóźnień
inizia ad imparare
PRAWDA
Dla sieci systemowych (SAN) są charakterystyczne: Topologia typu hipersześcian
inizia ad imparare
FAŁSZ
Dla sieci systemowych (SAN) są charakterystyczne: Niska przepustowość
inizia ad imparare
FAŁSZ
Sieci systemowe (SAN): Wymagają protokołu MESI
inizia ad imparare
FAŁSZ
Sieci systemowe (SAN): Wykorzystują przełączniki łączone wg topologii grubego drzewa
inizia ad imparare
PRAWDA
Sieci systemowe (SAN): Realizują przesyły bloków danych bezpośrednio między pamięciami operacyjnymi węzłów sieci
inizia ad imparare
PRAWDA
Sieci systemowe (SAN): Są stosowane w klastrach
inizia ad imparare
PRAWDA
Czy poniższa lista jest rosnąco uporządkowana według skalowalności: Systemy ściśle połączone, systemy ze wspólną pamięcią, systemy SMP
inizia ad imparare
FAŁSZ

Devi essere accedere per pubblicare un commento.