Main.c 22.3 KB
Newer Older
1
2
3
#include <stdio.h>
#include <stdlib.h>
#include <mpi.h>
iker_martin's avatar
iker_martin committed
4
#include <fcntl.h>
5
#include <unistd.h>
iker_martin's avatar
iker_martin committed
6
#include <sys/stat.h>
7
#include "computing_func.h"
8
9
10
11
12
13
//#include "../IOcodes/read_ini.h"
//#include "../IOcodes/results.h"
//#include "../malleability/ProcessDist.h"
#include "../malleability/CommDist.h" //TODO Refactor para que no haga falta
#include "../malleability/malleabilityManager.h"
#include "../malleability/malleabilityStates.h"
14
15
16

#define ROOT 0

iker_martin's avatar
iker_martin committed
17
int work();
18
/*void Sons_init();
iker_martin's avatar
iker_martin committed
19

20
int checkpoint(int iter, int state, MPI_Request **comm_req);
21
int TC(int numS, int comm_type);
22
int start_redistribution(int iter, int numS, MPI_Request **comm_req);
23
int check_redistribution(int iter, MPI_Request **comm_req);
24
25
26
int end_redistribution(int iter);

int thread_creation();
27
int thread_check(int iter);
28
void* thread_async_work(void* void_arg);
29
*/
30
void iterate(double *matrix, int n, int async_comm);
31

32
void init_group_struct(char *argv[], int argc, int myId, int numP);
33
void init_application();
34
void obtain_op_times();
35
36
void free_application_data();

37
void print_general_info(int myId, int grp, int numP);
38
int print_final_results();
iker_martin's avatar
iker_martin committed
39
int create_out_file(char *nombre, int *ptr, int newstdout);
40

iker_martin's avatar
iker_martin committed
41
42
43
44
typedef struct {
  int myId;
  int numP;
  int grp;
45
  int iter_start;
46
  int argc;
iker_martin's avatar
iker_martin committed
47

48
  int numS; // Cantidad de procesos hijos
49
  //int commAsync; FIXME REMOVE
iker_martin's avatar
iker_martin committed
50
  MPI_Comm children, parents;
51
52

  char *compute_comm_array;
iker_martin's avatar
iker_martin committed
53
  char **argv;
54
  char *sync_array, *async_array;
iker_martin's avatar
iker_martin committed
55
56
} group_data;

57
/*
58
59
60
61
62
typedef struct {
  int myId, numP, numS, adr;
  MPI_Comm children;
  char *sync_array;
} thread_data;
63
*/
64

iker_martin's avatar
iker_martin committed
65
66
configuration *config_file;
group_data *group;
67
results_data *results;
68
int run_id = 0; // Utilizado para diferenciar más fácilmente ejecuciones en el análisis
69

70
//pthread_t async_thread; // TODO Cambiar de sitio?
71

72
int main(int argc, char *argv[]) {
73
    int numP, myId, res;
iker_martin's avatar
iker_martin committed
74
    int req;
75

76
    MPI_Init_thread(&argc, &argv, MPI_THREAD_MULTIPLE, &req);
77
    MPI_Comm_size(MPI_COMM_WORLD, &numP);
iker_martin's avatar
iker_martin committed
78
79
    MPI_Comm_rank(MPI_COMM_WORLD, &myId);

80
81
82
83
    if(req != MPI_THREAD_MULTIPLE) {
      printf("No se ha obtenido la configuración de hilos necesaria\nSolicitada %d -- Devuelta %d\n", req, MPI_THREAD_MULTIPLE);
    }

84
    init_group_struct(argv, argc, myId, numP);
85
    init_malleability(myId, numP, ROOT, MPI_COMM_WORLD, argv[0]); //FIXME Cambiar el uso de MPI_COMM_WORLD?
86

87
88
89
90
    MPI_Comm_get_parent(&(group->parents)); //FIXME No usar esto
    if(group->parents != MPI_COMM_NULL ) {
      group->grp++;
      MPI_Comm_disconnect(&(group->parents)); //FIXME Volver a poner cuando se arregle MAIN.c
91
    }
iker_martin's avatar
iker_martin committed
92

93
    if(group->grp == 0) {
94
95
96
97
98
      init_application();

      set_benchmark_configuration(config_file);
      set_benchmark_results(results);

99
100
      MPI_Barrier(MPI_COMM_WORLD);
      results->exec_start = MPI_Wtime();
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
    } else {
      // TODO Que habría que hacer aqui?
      get_benchmark_configuration(&config_file); //No se obtiene bien el archivo
      get_benchmark_results(&results); //No se obtiene bien el archivo

      set_results_post_reconfig(results, group->grp, config_file->sdr, config_file->adr);
      if(config_file->comm_tam) {
        group->compute_comm_array = malloc(config_file->comm_tam * sizeof(char));
      }
    }

    if(config_file->resizes != group->grp + 1) {
      int spawn_type = COMM_SPAWN_SERIAL; // TODO Pasar a CONFIG
      set_malleability_configuration(spawn_type, config_file->phy_dist[group->grp+1], -1, config_file->aib, -1);
      set_children_number(config_file->procs[group->grp+1]); // TODO TO BE DEPRECATED
116
    }
117

118
    res = work();
119

120
121
122
    if(res) { // Se he llegado al final de la aplicacion
      MPI_Barrier(MPI_COMM_WORLD);
      results->exec_time = MPI_Wtime() - results->exec_start;
123
    }
124

125
    print_final_results(); // Pasado este punto ya no pueden escribir los procesos
126
    free_application_data();
127
128
129
130
131
    MPI_Finalize();
    return 0;
}

/*
132
133
134
135
136
137
138
139
140
 * Función de trabajo principal.
 *
 * Incializa los datos para realizar el computo y a continuacion
 * pasa a realizar "maxiter" iteraciones de computo.
 *
 * Terminadas las iteraciones realiza el redimensionado de procesos.
 * Si el redimensionado se realiza de forma asincrona se 
 * siguen realizando iteraciones de computo hasta que termine la 
 * comunicacion asincrona y realizar entonces la sincrona.
141
142
143
144
 *
 * Si el grupo de procesos es el ultimo que va a ejecutar, se devuelve
 * el valor 1 para indicar que no se va a seguir trabajando con nuevos grupos
 * de procesos. En caso contrario se devuelve 0.
145
 */
iker_martin's avatar
iker_martin committed
146
int work() {
147
  int iter, maxiter, state, res;
148
  double *matrix = NULL;
149

iker_martin's avatar
iker_martin committed
150
  maxiter = config_file->iters[group->grp];
151
  //initMatrix(&matrix, config_file->matrix_tam);
152
  state = MAL_NOT_STARTED;
iker_martin's avatar
iker_martin committed
153

154
  res = 0;
155
  for(iter=group->iter_start; iter < maxiter; iter++) {
156
    iterate(matrix, config_file->matrix_tam, state);
157
  }
158
159
160
  if(config_file->iters[group->grp] == iter && config_file->resizes != group->grp + 1)
    state = malleability_checkpoint();

161
  iter = 0;
162
  while(state == MAL_DIST_PENDING || state == MAL_SPAWN_PENDING) {
163
    iterate(matrix, config_file->matrix_tam, state);
164
    iter++;
165
    state = malleability_checkpoint();
166
  }
167
  
168
169
  if(config_file->resizes - 1 == group->grp) res=1;
  return res;
170
171
}

172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
256
257
258
259
260
261
262
263
264
265
266
267
268
269
270
271
272
273
274
275
276
277
278
279
280
281
282
283
284
285
286
287
288
289
290
291
292
293
294
295
296
297
298
299
300
301
302
303
304
305
306
307
308
309
310
311
312
313
314
315
316
317
318
319
320
321
322
323
324
325
326
327
328
329
330
331
332
333
334
335
336
337
338
339
340
341
342
343
344
345
346
347
348
349
350
351
352
353
354
355
356
357
358
359
360
361
362
363
364
365
366
367
368
369
370
371
372
373
374
375
376
377
378
379
380
381
382
383
384
385
386
387
388
389
390
391
392
393

/////////////////////////////////////////
/////////////////////////////////////////
//COMPUTE FUNCTIONS
/////////////////////////////////////////
/////////////////////////////////////////


/*
 * Simula la ejecucción de una iteración de computo en la aplicación
 * que dura al menos un tiempo de "time" segundos.
 */
void iterate(double *matrix, int n, int async_comm) {
  double start_time, actual_time;
  double time = config_file->general_time * config_file->factors[group->grp];
  double Top = config_file->Top;
  int i, operations = 0;
  double aux = 0;

  start_time = actual_time = MPI_Wtime();

  operations = time / Top; //FIXME Calcular una sola vez
  for(i=0; i < operations; i++) {
    aux += computePiSerial(n);
  }

  if(config_file->comm_tam) {
    MPI_Bcast(group->compute_comm_array, config_file->comm_tam, MPI_CHAR, ROOT, MPI_COMM_WORLD);
  }

  actual_time = MPI_Wtime(); // Guardar tiempos
  // TODO Que diferencie entre ambas en el IO
  if(async_comm == MAL_DIST_PENDING || async_comm == MAL_SPAWN_PENDING) { // Se esta realizando una redistribucion de datos asincrona
    operations=0;
  }

  if(results->iter_index == results->iters_size) { // Aumentar tamaño de ambos vectores de resultados
    realloc_results_iters(results, results->iters_size + 100);
  }
  results->iters_time[results->iter_index] = actual_time - start_time;
  results->iters_type[results->iter_index] = operations;
  results->iter_index = results->iter_index + 1;
}

//======================================================||
//======================================================||
//=============INIT/FREE/PRINT FUNCTIONS================||
//======================================================||
//======================================================||

/*
 * Muestra datos generales sobre los procesos, su grupo,
 * en que nodo residen y la version de MPI utilizada.
 */
void print_general_info(int myId, int grp, int numP) {
  int len;
  char *name = malloc(MPI_MAX_PROCESSOR_NAME * sizeof(char));
  char *version = malloc(MPI_MAX_LIBRARY_VERSION_STRING * sizeof(char));
  MPI_Get_processor_name(name, &len);
  MPI_Get_library_version(version, &len);
  printf("P%d Nuevo GRUPO %d de %d procs en nodo %s con %s\n", myId, grp, numP, name, version);

  free(name);
  free(version);
}

/*
 * Pide al proceso raiz imprimir los datos sobre las iteraciones realizadas por el grupo de procesos.
 *
 * Si es el ultimo grupo de procesos, muestra los datos obtenidos de tiempo de ejecucion, creacion de procesos
 * y las comunicaciones.
 */
int print_final_results() {
  int ptr_local, ptr_global, err;
  char *file_name;

  if(group->myId == ROOT) {
    file_name = NULL;
    file_name = malloc(40 * sizeof(char));
    if(file_name == NULL) return -1; // No ha sido posible alojar la memoria
    err = snprintf(file_name, 40, "R%d_G%dNP%dID%d.out", run_id, group->grp, group->numP, group->myId);
    if(err < 0) return -2; // No ha sido posible obtener el nombre de fichero
    create_out_file(file_name, &ptr_local, 1);
  
    print_config_group(config_file, group->grp);
    print_iter_results(*results, config_file->iters[group->grp] -1);
    free(file_name);

    if(group->grp == config_file->resizes -1) {
      file_name = NULL;
      file_name = malloc(20 * sizeof(char));
      if(file_name == NULL) return -1; // No ha sido posible alojar la memoria
      err = snprintf(file_name, 20, "R%d_Global.out", run_id);
      if(err < 0) return -2; // No ha sido posible obtener el nombre de fichero

      create_out_file(file_name, &ptr_global, 1);
      print_config(config_file, group->grp);
      print_global_results(*results, config_file->resizes);
      free(file_name);
      
    }
  }
  return 0;
}

/*
 * Inicializa la estructura group
 */
void init_group_struct(char *argv[], int argc, int myId, int numP) {
  group = malloc(1 * sizeof(group_data));
  group->myId        = myId;
  group->numP        = numP;
  group->grp         = 0;
  group->iter_start  = 0;
  //group->commAsync   = MAL_COMM_UN; FIXME REMOVE
  group->argc        = argc;
  group->argv        = argv;
}

/*
 * Inicializa los datos para este grupo de procesos.
 *
 * En caso de ser el primer grupo de procesos, lee el fichero de configuracion
 * e inicializa los vectores de comunicacion.
 *
 * En caso de ser otro grupo de procesos entra a la funcion "Sons_init()" donde
 * se comunican con los padres para inicializar sus datos.
 */
void init_application() {
  if(group->argc < 2) {
    printf("Falta el fichero de configuracion. Uso:\n./programa config.ini id\nEl argumento numerico id es opcional\n");
    MPI_Abort(MPI_COMM_WORLD, -1);
  }
  if(group->argc > 2) {
    run_id = atoi(group->argv[2]);
  }

  config_file = read_ini_file(group->argv[1]);
  results = malloc(sizeof(results_data));
  init_results_data(results, config_file->resizes, config_file->iters[group->grp]);
  if(config_file->comm_tam) {
    group->compute_comm_array = malloc(config_file->comm_tam * sizeof(char));
  }
  if(config_file->sdr) {
    malloc_comm_array(&(group->sync_array), config_file->sdr , group->myId, group->numP);
  }
  if(config_file->adr) {
    malloc_comm_array(&(group->async_array), config_file->adr , group->myId, group->numP);
  }
   
  obtain_op_times();
}

/*
 * Obtiene cuanto tiempo es necesario para realizar una operacion de PI
 */
void obtain_op_times() {
  double result, start_time = MPI_Wtime();
  int i, qty = 20000;
  result = 0;
  for(i=0; i<qty; i++) {
    result += computePiSerial(config_file->matrix_tam);
  }
  //printf("Creado Top con valor %lf\n", result);
  //fflush(stdout);

  config_file->Top = (MPI_Wtime() - start_time) / qty; //Tiempo de una operacion
  MPI_Bcast(&(config_file->Top), 1, MPI_DOUBLE, ROOT, MPI_COMM_WORLD); 
}

/*
 * Libera toda la memoria asociada con la aplicacion
 */
void free_application_data() {
  if(config_file->comm_tam) {
    free(group->compute_comm_array);
  }
  if(config_file->sdr) {
    free(group->sync_array);
  }
  if(config_file->adr) {
    free(group->async_array);
  }
  
  if(group->grp == 0) { //FIXME Revisar porque cuando es diferente a 0 no funciona
    //free_config(config_file);
    //free_results_data(results);
  }
  free(group);

  free_malleability();
  free(results);
}


/* 
 * Función para crear un fichero con el nombre pasado como argumento.
 * Si el nombre ya existe, se escribe la informacion a continuacion.
 *
 * El proceso que llama a la función pasa a tener como salida estandar
 * dicho fichero si el valor "newstdout" es verdadero.
 *
 */
int create_out_file(char *nombre, int *ptr, int newstdout) {
  int err;

  *ptr = open(nombre, O_WRONLY | O_CREAT | O_APPEND, 0644);
  if(*ptr < 0) return -1; // No ha sido posible crear el fichero

  if(newstdout) {
    err = close(1);
    if(err < 0) return -2; // No es posible modificar la salida estandar
    err = dup(*ptr);
    if(err < 0) return -3; // No es posible modificar la salida estandar
  }

  return 0;
}




394
395
396
397
398
399
400
401
/*
 * Se realiza el redimensionado de procesos por parte de los padres.
 *
 * Se crean los nuevos procesos con la distribucion fisica elegida y
 * a continuacion se transmite la informacion a los mismos.
 *
 * Si hay datos asincronos a transmitir, primero se comienza a
 * transmitir estos y se termina la funcion. Se tiene que comprobar con
402
 * llamando a la función de nuevo que se han terminado de enviar
403
404
405
406
407
408
 *
 * Si hay ademas datos sincronos a enviar, no se envian aun.
 *
 * Si solo hay datos sincronos se envian tras la creacion de los procesos
 * y finalmente se desconectan los dos grupos de procesos.
 */
409
/*
410
411
412
413
int checkpoint(int iter, int state, MPI_Request **comm_req) {
  
  if(state == MAL_COMM_UNINITIALIZED) {
    // Comprobar si se tiene que realizar un redimensionado
414
    //if(config_file->iters[group->grp] > iter || config_file->resizes == group->grp + 1) {return MAL_COMM_UNINITIALIZED;}
415

416
    group->numS = config_file->procs[group->grp +1];
417
    int comm_type = COMM_SPAWN_SERIAL; // TODO Pasar a CONFIG
418

419
420
421
    state = TC(group->numS, comm_type);

    if (state == COMM_FINISHED){
422
      state = start_redistribution(0, group->numS, comm_req);
423
424
425
    }

  } else if(state == COMM_IN_PROGRESS) { // Comprueba si el spawn ha terminado y comienza la redistribucion
426
    state = check_slurm_comm(group->myId, ROOT, group->numP, &(group->children));
427

428
429
    if (state == COMM_FINISHED) {  
        results->spawn_time[group->grp] = MPI_Wtime() - results->spawn_start;
430
      state = start_redistribution(iter, group->numS, comm_req);
431
    }
432

433
  } else if(state == MAL_ASYNC_PENDING) {
434
435
436
437
438
    if(config_file->aib == MAL_USE_THREAD) {
      state = thread_check(iter);
    } else {
      state = check_redistribution(iter, comm_req);
    }
439
  }
iker_martin's avatar
iker_martin committed
440

441
442
  return state;
}
443
*/
444
445
/*
 * Se encarga de realizar la creacion de los procesos hijos.
446
 * Si se pide en segundo plano devuelve el estado actual.
447
 */
448
/*
449
int TC(int numS, int comm_type){
450
451
  // Inicialización de la comunicación con SLURM
  int dist = config_file->phy_dist[group->grp +1];
452
  int comm_state;
453
  MPI_Comm *new_comm = malloc(sizeof(MPI_Comm));
iker_martin's avatar
iker_martin committed
454

455
      results->spawn_start = MPI_Wtime();
456
457
  MPI_Comm_dup(MPI_COMM_WORLD, new_comm);
  comm_state = init_slurm_comm(group->argv, group->myId, numS, ROOT, dist, comm_type, *new_comm, &(group->children));
458
459
  if(comm_type == COMM_SPAWN_SERIAL)
      results->spawn_time[group->grp] = MPI_Wtime() - results->spawn_start;
460
461
462
463
  else if(comm_type == COMM_SPAWN_PTHREAD) {
      results->spawn_thread_time[group->grp] = MPI_Wtime() - results->spawn_start;
      results->spawn_start = MPI_Wtime();
  }
464
  return comm_state;
465
}
466
*/
467
468
469
470
471
472
473
474
475
476
477
478
479
480
/*
 * Comienza la redistribucion de los datos con el nuevo grupo de procesos.
 *
 * Primero se envia la configuracion a utilizar al nuevo grupo de procesos y a continuacion
 * se realiza el envio asincrono y/o sincrono si lo hay.
 *
 * En caso de que haya comunicacion asincrona, se comienza y se termina la funcion 
 * indicando que se ha comenzado un envio asincrono.
 *
 * Si no hay comunicacion asincrono se pasa a realizar la sincrona si la hubiese.
 *
 * Finalmente se envian datos sobre los resultados a los hijos y se desconectan ambos
 * grupos de procesos.
 */
481
/*
482
int start_redistribution(int iter, int numS, MPI_Request **comm_req) {
iker_martin's avatar
iker_martin committed
483
484
485
486
487
  int rootBcast = MPI_PROC_NULL;
  if(group->myId == ROOT) rootBcast = MPI_ROOT;

  // Enviar a los hijos que grupo de procesos son
  MPI_Bcast(&(group->grp), 1, MPI_INT, rootBcast, group->children);
488
  MPI_Bcast(&run_id, 1, MPI_INT, rootBcast, group->children);
iker_martin's avatar
iker_martin committed
489
490
  send_config_file(config_file, rootBcast, group->children);

491
  if(config_file->adr > 0) {
492
    results->async_start = MPI_Wtime();
493
494
495
496
497
498
    if(config_file->aib == MAL_USE_THREAD) {
      return thread_creation();
    } else {
      send_async(group->async_array, config_file->adr, group->myId, group->numP, ROOT, group->children, group->numS, comm_req, config_file->aib);
      return MAL_ASYNC_PENDING;
    }
499
  } 
500
  return end_redistribution(iter);
501
}
502
*/
503
504
505
/*
 * Crea una hebra para ejecutar una comunicación en segundo plano.
 */
506
/*
507
508
509
510
511
int thread_creation() {
  if(pthread_create(&async_thread, NULL, thread_async_work, NULL)) {
    printf("Error al crear el hilo\n");
    MPI_Abort(MPI_COMM_WORLD, -1);
    return -1;
iker_martin's avatar
iker_martin committed
512
  }
513
514
  return MAL_ASYNC_PENDING;
}
515
*/
516
517
518
519
520
521
/*
 * Comprobación por parte de una hebra maestra que indica
 * si una hebra esclava ha terminado su comunicación en segundo plano.
 *
 * El estado de la comunicación es devuelto al finalizar la función. 
 */
522
/*
523
int thread_check(int iter) {
524
  int all_completed = 0;
iker_martin's avatar
iker_martin committed
525

526
527
528
529
530
531
532
533
534
535
  // Comprueba que todos los hilos han terminado la distribucion (Mismo valor en commAsync)
  MPI_Allreduce(&group->commAsync, &all_completed, 1, MPI_INT, MPI_MAX, MPI_COMM_WORLD);
  if(all_completed != MAL_COMM_COMPLETED) return MAL_ASYNC_PENDING; // Continue only if asynchronous send has ended 

  if(pthread_join(async_thread, NULL)) {
    printf("Error al esperar al hilo\n");
    MPI_Abort(MPI_COMM_WORLD, -1);
    return -2;
  } 
  return end_redistribution(iter);
536
}
537
*/
538
539
540
541
542
543
544
545
/*
 * Función ejecutada por una hebra.
 * Ejecuta una comunicación síncrona con los hijos que
 * para el usuario se puede considerar como en segundo plano.
 *
 * Cuando termina la comunicación la hebra maestra puede comprobarlo
 * por el valor "commAsync".
 */
546
/*
547
548
549
550
void* thread_async_work(void* void_arg) {
  send_sync(group->async_array, config_file->adr, group->myId, group->numP, ROOT, group->children, group->numS);
  group->commAsync = MAL_COMM_COMPLETED;
  pthread_exit(NULL);
iker_martin's avatar
iker_martin committed
551
}
552
*/
553
/*
554
 * @deprecated
555
556
557
558
559
560
561
 * Comprueba si la redistribucion asincrona ha terminado. 
 * Si no ha terminado la funcion termina indicandolo, en caso contrario,
 * se continua con la comunicacion sincrona, el envio de resultados y
 * se desconectan los grupos de procesos.
 *
 * Esta funcion permite dos modos de funcionamiento al comprobar si la
 * comunicacion asincrona ha terminado.
562
563
 * Si se utiliza el modo "MAL_USE_NORMAL" o "MAL_USE_POINT", se considera 
 * terminada cuando los padres terminan de enviar.
564
565
566
 * Si se utiliza el modo "MAL_USE_IBARRIER", se considera terminada cuando
 * los hijos han terminado de recibir.
 */
567
/*
568
int check_redistribution(int iter, MPI_Request **comm_req) {
569
  int completed, all_completed, test_err;
570
  MPI_Request *req_completed;
iker_martin's avatar
iker_martin committed
571

572
573
574
575
576
577
578
579
580
581
  if (config_file->aib == MAL_USE_POINT) {
    test_err = MPI_Testall(group->numS, *comm_req, &completed, MPI_STATUSES_IGNORE);
  } else {
    if(config_file->aib == MAL_USE_NORMAL) {
      req_completed = &(*comm_req)[0];
    } else if (config_file->aib == MAL_USE_IBARRIER) {
      req_completed = &(*comm_req)[1];
    }
    test_err = MPI_Test(req_completed, &completed, MPI_STATUS_IGNORE);
  }
582
 
583
  if (test_err != MPI_SUCCESS && test_err != MPI_ERR_PENDING) {
584
    printf("P%d aborting -- Test Async\n", group->myId);
585
586
587
588
    MPI_Abort(MPI_COMM_WORLD, test_err);
  }

  MPI_Allreduce(&completed, &all_completed, 1, MPI_INT, MPI_MIN, MPI_COMM_WORLD);
589
  if(!all_completed) return MAL_ASYNC_PENDING; // Continue only if asynchronous send has ended 
590
  
591
592
593

  if(config_file->aib == MAL_USE_IBARRIER) {
    MPI_Wait(&(*comm_req)[0], MPI_STATUS_IGNORE); // Indicar como completado el envio asincrono
594
    //Para la desconexión de ambos grupos de procesos es necesario indicar a MPI que esta comm
595
    //ha terminado, aunque solo se pueda llegar a este punto cuando ha terminado
596
  }
597
598
599
  free(*comm_req);
  return end_redistribution(iter);
}
600
*/
601
602
603
604
605
606
607
608
609

/*
 * Termina la redistribución de los datos con los hijos, comprobando
 * si se han realizado iteraciones con comunicaciones en segundo plano
 * y enviando cuantas iteraciones se han realizado a los hijos.
 *
 * Además se realizan las comunicaciones síncronas se las hay.
 * Finalmente termina enviando los datos temporales a los hijos.
 */ 
610
/*
611
612
613
614
int end_redistribution(int iter) {
  int rootBcast = MPI_PROC_NULL;
  if(group->myId == ROOT) rootBcast = MPI_ROOT;

615
  if(config_file->sdr > 0) { // Realizar envio sincrono
616
      results->sync_start = MPI_Wtime();
617
    send_sync(group->sync_array, config_file->sdr, group->myId, group->numP, ROOT, group->children, group->numS);
618
619
  }

620
  MPI_Bcast(&iter, 1, MPI_INT, rootBcast, group->children);
621
  send_results(results, rootBcast, config_file->resizes, group->children);
622
623
624
  // Desconectar intercomunicador con los hijos
  MPI_Comm_disconnect(&(group->children));
  return MAL_COMM_COMPLETED;
iker_martin's avatar
iker_martin committed
625
}
626
*/
627
628
629
630
631
632
/*
 * Inicializacion de los datos de los hijos.
 * En la misma se reciben datos de los padres: La configuracion
 * de la ejecucion a realizar; y los datos a recibir de los padres
 * ya sea de forma sincrona, asincrona o ambas.
 */
633
/*
iker_martin's avatar
iker_martin committed
634
635
636
637
void Sons_init() {

  // Enviar a los hijos que grupo de procesos son
  MPI_Bcast(&(group->grp), 1, MPI_INT, ROOT, group->parents);
638
  MPI_Bcast(&run_id, 1, MPI_INT, ROOT, group->parents);
iker_martin's avatar
iker_martin committed
639
640
641
642
  group->grp++;

  config_file = recv_config_file(ROOT, group->parents);
  int numP_parents = config_file->procs[group->grp -1];
643
644
  results = malloc(sizeof(results_data));
  init_results_data(results, config_file->resizes - 1, config_file->iters[group->grp]);
iker_martin's avatar
iker_martin committed
645

646
  if(config_file->adr) { // Recibir datos asincronos
647
648
649
650
651
652
    if(config_file->aib == MAL_USE_NORMAL || config_file->aib == MAL_USE_IBARRIER || config_file->aib == MAL_USE_POINT) {
      recv_async(&(group->async_array), config_file->adr, group->myId, group->numP, ROOT, group->parents, numP_parents, config_file->aib);
    } else if (config_file->aib == MAL_USE_THREAD) {
      recv_sync(&(group->async_array), config_file->adr, group->myId, group->numP, ROOT, group->parents, numP_parents);
    }

653
      results->async_end = MPI_Wtime();
654
  }
655
  if(config_file->sdr) { // Recibir datos sincronos
iker_martin's avatar
iker_martin committed
656
    recv_sync(&(group->sync_array), config_file->sdr, group->myId, group->numP, ROOT, group->parents, numP_parents);
657
    results->sync_end = MPI_Wtime();
iker_martin's avatar
iker_martin committed
658
  }
659
  MPI_Bcast(&(group->iter_start), 1, MPI_INT, ROOT, group->parents);
660
661
662

  // Guardar los resultados de esta transmision
  recv_results(results, ROOT, config_file->resizes, group->parents);
iker_martin's avatar
iker_martin committed
663
664
665
666

  // Desconectar intercomunicador con los hijos
  MPI_Comm_disconnect(&(group->parents));
}
667
*/