SISTEMAS OPERATIVOS.pptx

CARLOSGEOVANNIROSALE 20 views 20 slides Aug 19, 2022
Slide 1
Slide 1 of 20
Slide 1
1
Slide 2
2
Slide 3
3
Slide 4
4
Slide 5
5
Slide 6
6
Slide 7
7
Slide 8
8
Slide 9
9
Slide 10
10
Slide 11
11
Slide 12
12
Slide 13
13
Slide 14
14
Slide 15
15
Slide 16
16
Slide 17
17
Slide 18
18
Slide 19
19
Slide 20
20

About This Presentation

Algoritmo de planificacion SRTF


Slide Content

ALGORITMO SRTF (Shortest Remaining Time First)

Integrantes: 1. Carlos Geovanni Rosales Lucas 2990-08-9316 2. Mario David Giron Flores 2990-20-14258 3. Manuel Eduardo Pablo Barrios 2990-20-3035 4. Gerson Montúfar Ajquejay 2990-20-13205 5. Josselline Desireé Menchú Charuc 2990-20-1470 6. JAIME LEONEL 2990-20-996

Planificación de la CPU • Porcentaje de utilización de la CPU por procesos de usuario. La CPU es un recurso caro que necesita ser explotado, los valores reales suelen estar entre un 40% y un 90%. • Rendimiento (throughput) = nº de ráfagas por unidad de tiempo. Se define una ráfaga como el período de tiempo en que un proceso necesita la CPU; un proceso, durante su vida, alterna ráfagas con bloqueos. Por extensión, también se define como el nº de trabajos por unidad de tiempo. • Tiempo de espera (E) = tiempo que una ráfaga ha permanecido en estado listo. • Tiempo de finalización (F) = tiempo transcurrido desde que una ráfaga comienza a existir hasta que finaliza. F = E + t (t = tiempo de CPU de la ráfaga). • Penalización (P) = E + t / t = F / t, es una medida adimensional que se puede aplicar homogéneamente a las ráfagas independientemente de su longitud.

• Porcentaje de utilización de la CPU por procesos de usuario. La CPU es un recurso caro que necesita ser explotado, los valores reales suelen estar entre un 40% y un 90%. • Rendimiento (throughput) = nº de ráfagas por unidad de tiempo. Se define una ráfaga como el período de tiempo en que un proceso necesita la CPU; un proceso, durante su vida, alterna ráfagas con bloqueos. Por extensión, también se define como el nº de trabajos por unidad de tiempo. • Tiempo de espera (E) = tiempo que una ráfaga ha permanecido en estado listo. • Tiempo de finalización (F) = tiempo transcurrido desde que una ráfaga comienza a existir hasta que finaliza. F = E + t (t = tiempo de CPU de la ráfaga). • Penalización (P) = E + t / t = F / t, es una medida adimensional que se puede aplicar homogéneamente a las ráfagas independientemente de su longitud.

Llamado también SJF (Shortest Job First). Este algoritmo de planificación reduce la preferencia en favor de los procesos más largos dando más importancia a los procesos cortos, como se muestra en la figura. Esta política funciona otorgándole al procesador un proceso más corto. En general, esta política mejora el funcionamiento del sistema en términos del tiempo de respuesta, pero gran cambia demasiado cuando se trata de procesos largos.

Las características de este algoritmo son las siguientes: ● El tiempo de espera aumenta de acuerdo con el tamaño de los procesos, pero el tiempo promedio de espera con respecto a otros algoritmos es óptimo. ● Es poco predecible. ● No es justo con los procesos largos. ● Tiene buen tiempo de servicio. ● Resulta difícil de llevar a la práctica por los datos que necesita para realizarse la planificación.

CONCEPTOS BÁSICOS DEL ALGORITMO SRTF

EJEMPLO DE EJECUCIÓN

GESTIÓN DE MEMORIA

Planificación de hilos ● Una distinción entre hilos a nivel de usuario e hilos a nivel de kernel radica en cómo se planifican. ● En los sistemas que implementan los modelos muchos a uno y muchos a muchos, la biblioteca de hilos planifica hilos a nivel de usuario para que se ejecuten en un LWP disponible. ● Este esquema se conoce como alcance de contenido de proc. (Process Contention Scope - PCS), ya que la competencia por la CPU tiene lugar entre los hilos que pertenecen al mismo proc.

● Cuando afirmamos que la biblioteca de hilos planifica los hilos de los usuarios en los LWP disponibles, no nos referimos a que los hilos realmente se estén ejecutando en una CPU, ya que Eso requiere que el SO planifique el hilo del kernel del LWP en un core de CPU físico. ● Sistemas que utilizan el modelo uno a uno, como Windows y Linux, planifican hilos utilizando SCS. ● Normalmente, PCS se realiza con prioridad: El planificador selecciona el hilo con la prioridad más alta para ejecutar.

Planificación multiprocesador ● Tradicionalmente, el término multiprocesador se refería a sistemas que proporcionaban múltiples procesadores físicos, donde cada procesador contiene una CPU de un solo core. ● Sin embargo, la definición de multiprocesador ha evolucionado significativamente y en los sistemas informáticos modernos, el multiprocesador se aplica a las siguientes arquitecturas: ○ CPUs multicore. ○ Multithreaded cores. ○ Sistemas NUMA. ○ Multiprocesamiento heterogéneo

● En el multiprocesamiento simétrico (SMP) cada procesador se planifica individualmente. ○ Todos los hilos pueden estar en una cola de listos común. ○ Cada procesador puede tener su propia cola privada de hilos

● Recientemente, existe una tendencia a colocar múltiples núcleos de procesador en el mismo chip físico. ● Es más rápido y consume menos energía. ● Se da un incremento de múltiples hilos por núcleo. ○ Se aprovechan los memory stall para avanzar en otro hilo mientras se realiza la recuperación de memoria

● Cada core tiene dos o más hilos de hardware. ● Si un hilo tiene un memory stall, se debe cambiar a otro hilo

¿ QUÉ ES PLANIFICACIÓN EN TIEMPO REAL? Un sistema de tiempo real necesita restringir el indeterminismo que aparece en los sistemas de tiempo compartido, seleccionando solo el orden de ejecución de las tareas que cumplan las restricciones temporales. A este proceso se le llama planificación

¿Qué es la planificación de la CPU? La Planificación de la CPU es un conjunto de técnicas y algoritmos que se incorporan a los Sistemas Operativos Multiprogramados. Esta planificación gobierna el orden en que se ejecuta n procesos.
Tags