Main.c 22.5 KB
Newer Older
1
2
3
#include <stdio.h>
#include <stdlib.h>
#include <mpi.h>
iker_martin's avatar
iker_martin committed
4
#include <fcntl.h>
5
#include <unistd.h>
iker_martin's avatar
iker_martin committed
6
#include <sys/stat.h>
7
#include "computing_func.h"
8
9
10
11
12
13
//#include "../IOcodes/read_ini.h"
//#include "../IOcodes/results.h"
//#include "../malleability/ProcessDist.h"
#include "../malleability/CommDist.h" //TODO Refactor para que no haga falta
#include "../malleability/malleabilityManager.h"
#include "../malleability/malleabilityStates.h"
14
15
16

#define ROOT 0

iker_martin's avatar
iker_martin committed
17
int work();
18
/*void Sons_init();
iker_martin's avatar
iker_martin committed
19

20
int checkpoint(int iter, int state, MPI_Request **comm_req);
21
int TC(int numS, int comm_type);
22
int start_redistribution(int iter, int numS, MPI_Request **comm_req);
23
int check_redistribution(int iter, MPI_Request **comm_req);
24
25
26
int end_redistribution(int iter);

int thread_creation();
27
int thread_check(int iter);
28
void* thread_async_work(void* void_arg);
29
*/
30
void iterate(double *matrix, int n, int async_comm);
31

32
void init_group_struct(char *argv[], int argc, int myId, int numP);
33
void init_application();
34
void obtain_op_times();
35
36
void free_application_data();

37
void print_general_info(int myId, int grp, int numP);
38
int print_final_results();
iker_martin's avatar
iker_martin committed
39
int create_out_file(char *nombre, int *ptr, int newstdout);
40

iker_martin's avatar
iker_martin committed
41
42
43
44
typedef struct {
  int myId;
  int numP;
  int grp;
45
  int iter_start;
46
  int argc;
iker_martin's avatar
iker_martin committed
47

48
  int numS; // Cantidad de procesos hijos
49
  //int commAsync; FIXME REMOVE
iker_martin's avatar
iker_martin committed
50
  MPI_Comm children, parents;
51
52

  char *compute_comm_array;
iker_martin's avatar
iker_martin committed
53
  char **argv;
54
  char *sync_array, *async_array;
iker_martin's avatar
iker_martin committed
55
56
} group_data;

57
/*
58
59
60
61
62
typedef struct {
  int myId, numP, numS, adr;
  MPI_Comm children;
  char *sync_array;
} thread_data;
63
*/
64

iker_martin's avatar
iker_martin committed
65
66
configuration *config_file;
group_data *group;
67
results_data *results;
68
int run_id = 0; // Utilizado para diferenciar más fácilmente ejecuciones en el análisis
69

70
//pthread_t async_thread; // TODO Cambiar de sitio?
71

72
int main(int argc, char *argv[]) {
73
    int numP, myId, res;
iker_martin's avatar
iker_martin committed
74
    int req;
75

76
    MPI_Init_thread(&argc, &argv, MPI_THREAD_MULTIPLE, &req);
77
    MPI_Comm_size(MPI_COMM_WORLD, &numP);
iker_martin's avatar
iker_martin committed
78
79
    MPI_Comm_rank(MPI_COMM_WORLD, &myId);

80
81
82
83
84
85
86
87
88

    MPI_Comm delete; //FIXME DEBUGGING
    MPI_Comm_get_parent(&delete);
    if(delete != MPI_COMM_NULL ) {
	    printf("Hijos salen\n");
      MPI_Finalize();
      return 0;
    }

89
90
91
92
    if(req != MPI_THREAD_MULTIPLE) {
      printf("No se ha obtenido la configuración de hilos necesaria\nSolicitada %d -- Devuelta %d\n", req, MPI_THREAD_MULTIPLE);
    }

93
    init_group_struct(argv, argc, myId, numP);
94
    init_malleability(myId, numP, ROOT, MPI_COMM_WORLD, argv[0]); //FIXME Cambiar el uso de MPI_COMM_WORLD?
95

96
97
98
99
    MPI_Comm_get_parent(&(group->parents)); //FIXME No usar esto
    if(group->parents != MPI_COMM_NULL ) {
      group->grp++;
      MPI_Comm_disconnect(&(group->parents)); //FIXME Volver a poner cuando se arregle MAIN.c
100
    }
iker_martin's avatar
iker_martin committed
101

102

103
    if(group->grp == 0) {
104
105
106
107
108
      init_application();

      set_benchmark_configuration(config_file);
      set_benchmark_results(results);

109
110
      MPI_Barrier(MPI_COMM_WORLD);
      results->exec_start = MPI_Wtime();
111
112
113
114
115
    } else {
      // TODO Que habría que hacer aqui?
      get_benchmark_configuration(&config_file); //No se obtiene bien el archivo
      get_benchmark_results(&results); //No se obtiene bien el archivo
      set_results_post_reconfig(results, group->grp, config_file->sdr, config_file->adr);
116

117
118
119
120
121
122
123
124
125
      if(config_file->comm_tam) {
        group->compute_comm_array = malloc(config_file->comm_tam * sizeof(char));
      }
    }

    if(config_file->resizes != group->grp + 1) {
      int spawn_type = COMM_SPAWN_SERIAL; // TODO Pasar a CONFIG
      set_malleability_configuration(spawn_type, config_file->phy_dist[group->grp+1], -1, config_file->aib, -1);
      set_children_number(config_file->procs[group->grp+1]); // TODO TO BE DEPRECATED
126
    }
127

128
    res = work();
129

130
131
132
    if(res) { // Se he llegado al final de la aplicacion
      MPI_Barrier(MPI_COMM_WORLD);
      results->exec_time = MPI_Wtime() - results->exec_start;
133
    }
134

135
    //print_final_results(); // Pasado este punto ya no pueden escribir los procesos
136
    MPI_Finalize();
137
138
    //free_application_data();

139
140
141
142
    return 0;
}

/*
143
144
145
146
147
148
149
150
151
 * Función de trabajo principal.
 *
 * Incializa los datos para realizar el computo y a continuacion
 * pasa a realizar "maxiter" iteraciones de computo.
 *
 * Terminadas las iteraciones realiza el redimensionado de procesos.
 * Si el redimensionado se realiza de forma asincrona se 
 * siguen realizando iteraciones de computo hasta que termine la 
 * comunicacion asincrona y realizar entonces la sincrona.
152
153
154
155
 *
 * Si el grupo de procesos es el ultimo que va a ejecutar, se devuelve
 * el valor 1 para indicar que no se va a seguir trabajando con nuevos grupos
 * de procesos. En caso contrario se devuelve 0.
156
 */
iker_martin's avatar
iker_martin committed
157
int work() {
158
  int iter, maxiter, state, res;
159
  double *matrix = NULL;
160

iker_martin's avatar
iker_martin committed
161
  maxiter = config_file->iters[group->grp];
162
  //initMatrix(&matrix, config_file->matrix_tam);
163
  state = MAL_NOT_STARTED;
iker_martin's avatar
iker_martin committed
164

165
  res = 0;
166
  for(iter=group->iter_start; iter < maxiter; iter++) {
167
    iterate(matrix, config_file->matrix_tam, state);
168
  }
169
170
171
  if(config_file->iters[group->grp] == iter && config_file->resizes != group->grp + 1)
    state = malleability_checkpoint();

172
173
174
      MPI_Finalize();
      exit(0);

175
  iter = 0;
176
  while(state == MAL_DIST_PENDING || state == MAL_SPAWN_PENDING) {
177
    iterate(matrix, config_file->matrix_tam, state);
178
    iter++;
179
    state = malleability_checkpoint();
180
  }
181
  
182
183
  if(config_file->resizes - 1 == group->grp) res=1;
  return res;
184
185
}

186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
256
257
258
259
260
261
262
263
264
265
266
267
268
269
270
271
272
273
274
275
276
277
278
279
280
281
282
283
284
285
286
287
288
289
290
291
292
293
294
295
296
297
298
299
300
301
302
303
304
305
306
307
308
309
310
311
312
313
314
315
316
317
318
319
320
321
322
323
324
325
326
327
328
329
330
331
332
333
334
335
336
337
338
339
340
341
342
343
344
345
346
347
348
349
350
351
352
353
354
355
356
357
358
359
360
361
362
363
364
365
366
367
368
369

/////////////////////////////////////////
/////////////////////////////////////////
//COMPUTE FUNCTIONS
/////////////////////////////////////////
/////////////////////////////////////////


/*
 * Simula la ejecucción de una iteración de computo en la aplicación
 * que dura al menos un tiempo de "time" segundos.
 */
void iterate(double *matrix, int n, int async_comm) {
  double start_time, actual_time;
  double time = config_file->general_time * config_file->factors[group->grp];
  double Top = config_file->Top;
  int i, operations = 0;
  double aux = 0;

  start_time = actual_time = MPI_Wtime();

  operations = time / Top; //FIXME Calcular una sola vez
  for(i=0; i < operations; i++) {
    aux += computePiSerial(n);
  }

  if(config_file->comm_tam) {
    MPI_Bcast(group->compute_comm_array, config_file->comm_tam, MPI_CHAR, ROOT, MPI_COMM_WORLD);
  }

  actual_time = MPI_Wtime(); // Guardar tiempos
  // TODO Que diferencie entre ambas en el IO
  if(async_comm == MAL_DIST_PENDING || async_comm == MAL_SPAWN_PENDING) { // Se esta realizando una redistribucion de datos asincrona
    operations=0;
  }

  if(results->iter_index == results->iters_size) { // Aumentar tamaño de ambos vectores de resultados
    realloc_results_iters(results, results->iters_size + 100);
  }
  results->iters_time[results->iter_index] = actual_time - start_time;
  results->iters_type[results->iter_index] = operations;
  results->iter_index = results->iter_index + 1;
}

//======================================================||
//======================================================||
//=============INIT/FREE/PRINT FUNCTIONS================||
//======================================================||
//======================================================||

/*
 * Muestra datos generales sobre los procesos, su grupo,
 * en que nodo residen y la version de MPI utilizada.
 */
void print_general_info(int myId, int grp, int numP) {
  int len;
  char *name = malloc(MPI_MAX_PROCESSOR_NAME * sizeof(char));
  char *version = malloc(MPI_MAX_LIBRARY_VERSION_STRING * sizeof(char));
  MPI_Get_processor_name(name, &len);
  MPI_Get_library_version(version, &len);
  printf("P%d Nuevo GRUPO %d de %d procs en nodo %s con %s\n", myId, grp, numP, name, version);

  free(name);
  free(version);
}

/*
 * Pide al proceso raiz imprimir los datos sobre las iteraciones realizadas por el grupo de procesos.
 *
 * Si es el ultimo grupo de procesos, muestra los datos obtenidos de tiempo de ejecucion, creacion de procesos
 * y las comunicaciones.
 */
int print_final_results() {
  int ptr_local, ptr_global, err;
  char *file_name;

  if(group->myId == ROOT) {
    file_name = NULL;
    file_name = malloc(40 * sizeof(char));
    if(file_name == NULL) return -1; // No ha sido posible alojar la memoria
    err = snprintf(file_name, 40, "R%d_G%dNP%dID%d.out", run_id, group->grp, group->numP, group->myId);
    if(err < 0) return -2; // No ha sido posible obtener el nombre de fichero
    create_out_file(file_name, &ptr_local, 1);
  
    print_config_group(config_file, group->grp);
    print_iter_results(*results, config_file->iters[group->grp] -1);
    free(file_name);

    if(group->grp == config_file->resizes -1) {
      file_name = NULL;
      file_name = malloc(20 * sizeof(char));
      if(file_name == NULL) return -1; // No ha sido posible alojar la memoria
      err = snprintf(file_name, 20, "R%d_Global.out", run_id);
      if(err < 0) return -2; // No ha sido posible obtener el nombre de fichero

      create_out_file(file_name, &ptr_global, 1);
      print_config(config_file, group->grp);
      print_global_results(*results, config_file->resizes);
      free(file_name);
      
    }
  }
  return 0;
}

/*
 * Inicializa la estructura group
 */
void init_group_struct(char *argv[], int argc, int myId, int numP) {
  group = malloc(1 * sizeof(group_data));
  group->myId        = myId;
  group->numP        = numP;
  group->grp         = 0;
  group->iter_start  = 0;
  //group->commAsync   = MAL_COMM_UN; FIXME REMOVE
  group->argc        = argc;
  group->argv        = argv;
}

/*
 * Inicializa los datos para este grupo de procesos.
 *
 * En caso de ser el primer grupo de procesos, lee el fichero de configuracion
 * e inicializa los vectores de comunicacion.
 *
 * En caso de ser otro grupo de procesos entra a la funcion "Sons_init()" donde
 * se comunican con los padres para inicializar sus datos.
 */
void init_application() {
  if(group->argc < 2) {
    printf("Falta el fichero de configuracion. Uso:\n./programa config.ini id\nEl argumento numerico id es opcional\n");
    MPI_Abort(MPI_COMM_WORLD, -1);
  }
  if(group->argc > 2) {
    run_id = atoi(group->argv[2]);
  }

  config_file = read_ini_file(group->argv[1]);
  results = malloc(sizeof(results_data));
  init_results_data(results, config_file->resizes, config_file->iters[group->grp]);
  if(config_file->comm_tam) {
    group->compute_comm_array = malloc(config_file->comm_tam * sizeof(char));
  }
  if(config_file->sdr) {
    malloc_comm_array(&(group->sync_array), config_file->sdr , group->myId, group->numP);
  }
  if(config_file->adr) {
    malloc_comm_array(&(group->async_array), config_file->adr , group->myId, group->numP);
  }
   
  obtain_op_times();
}

/*
 * Obtiene cuanto tiempo es necesario para realizar una operacion de PI
 */
void obtain_op_times() {
  double result, start_time = MPI_Wtime();
  int i, qty = 20000;
  result = 0;
  for(i=0; i<qty; i++) {
    result += computePiSerial(config_file->matrix_tam);
  }
  //printf("Creado Top con valor %lf\n", result);
  //fflush(stdout);

  config_file->Top = (MPI_Wtime() - start_time) / qty; //Tiempo de una operacion
  MPI_Bcast(&(config_file->Top), 1, MPI_DOUBLE, ROOT, MPI_COMM_WORLD); 
}

/*
 * Libera toda la memoria asociada con la aplicacion
 */
void free_application_data() {
  if(config_file->comm_tam) {
    free(group->compute_comm_array);
  }
  if(config_file->sdr) {
    free(group->sync_array);
  }
  if(config_file->adr) {
    free(group->async_array);
  }
  
370
371
372
  free_malleability();
  free_config(config_file);

373
  if(group->grp == 0) { //FIXME Revisar porque cuando es diferente a 0 no funciona
374
375
    free_results_data(results);
    //free(results);
376
377
378
379
380
381
382
383
384
385
386
387
388
389
390
391
392
393
394
395
396
397
398
399
400
401
402
403
404
405
406
407
408
  }
  free(group);

}


/* 
 * Función para crear un fichero con el nombre pasado como argumento.
 * Si el nombre ya existe, se escribe la informacion a continuacion.
 *
 * El proceso que llama a la función pasa a tener como salida estandar
 * dicho fichero si el valor "newstdout" es verdadero.
 *
 */
int create_out_file(char *nombre, int *ptr, int newstdout) {
  int err;

  *ptr = open(nombre, O_WRONLY | O_CREAT | O_APPEND, 0644);
  if(*ptr < 0) return -1; // No ha sido posible crear el fichero

  if(newstdout) {
    err = close(1);
    if(err < 0) return -2; // No es posible modificar la salida estandar
    err = dup(*ptr);
    if(err < 0) return -3; // No es posible modificar la salida estandar
  }

  return 0;
}




409
410
411
412
413
414
415
416
/*
 * Se realiza el redimensionado de procesos por parte de los padres.
 *
 * Se crean los nuevos procesos con la distribucion fisica elegida y
 * a continuacion se transmite la informacion a los mismos.
 *
 * Si hay datos asincronos a transmitir, primero se comienza a
 * transmitir estos y se termina la funcion. Se tiene que comprobar con
417
 * llamando a la función de nuevo que se han terminado de enviar
418
419
420
421
422
423
 *
 * Si hay ademas datos sincronos a enviar, no se envian aun.
 *
 * Si solo hay datos sincronos se envian tras la creacion de los procesos
 * y finalmente se desconectan los dos grupos de procesos.
 */
424
/*
425
426
427
428
int checkpoint(int iter, int state, MPI_Request **comm_req) {
  
  if(state == MAL_COMM_UNINITIALIZED) {
    // Comprobar si se tiene que realizar un redimensionado
429
    //if(config_file->iters[group->grp] > iter || config_file->resizes == group->grp + 1) {return MAL_COMM_UNINITIALIZED;}
430

431
    group->numS = config_file->procs[group->grp +1];
432
    int comm_type = COMM_SPAWN_SERIAL; // TODO Pasar a CONFIG
433

434
435
436
    state = TC(group->numS, comm_type);

    if (state == COMM_FINISHED){
437
      state = start_redistribution(0, group->numS, comm_req);
438
439
440
    }

  } else if(state == COMM_IN_PROGRESS) { // Comprueba si el spawn ha terminado y comienza la redistribucion
441
    state = check_slurm_comm(group->myId, ROOT, group->numP, &(group->children));
442

443
444
    if (state == COMM_FINISHED) {  
        results->spawn_time[group->grp] = MPI_Wtime() - results->spawn_start;
445
      state = start_redistribution(iter, group->numS, comm_req);
446
    }
447

448
  } else if(state == MAL_ASYNC_PENDING) {
449
450
451
452
453
    if(config_file->aib == MAL_USE_THREAD) {
      state = thread_check(iter);
    } else {
      state = check_redistribution(iter, comm_req);
    }
454
  }
iker_martin's avatar
iker_martin committed
455

456
457
  return state;
}
458
*/
459
460
/*
 * Se encarga de realizar la creacion de los procesos hijos.
461
 * Si se pide en segundo plano devuelve el estado actual.
462
 */
463
/*
464
int TC(int numS, int comm_type){
465
466
  // Inicialización de la comunicación con SLURM
  int dist = config_file->phy_dist[group->grp +1];
467
  int comm_state;
468
  MPI_Comm *new_comm = malloc(sizeof(MPI_Comm));
iker_martin's avatar
iker_martin committed
469

470
      results->spawn_start = MPI_Wtime();
471
472
  MPI_Comm_dup(MPI_COMM_WORLD, new_comm);
  comm_state = init_slurm_comm(group->argv, group->myId, numS, ROOT, dist, comm_type, *new_comm, &(group->children));
473
474
  if(comm_type == COMM_SPAWN_SERIAL)
      results->spawn_time[group->grp] = MPI_Wtime() - results->spawn_start;
475
476
477
478
  else if(comm_type == COMM_SPAWN_PTHREAD) {
      results->spawn_thread_time[group->grp] = MPI_Wtime() - results->spawn_start;
      results->spawn_start = MPI_Wtime();
  }
479
  return comm_state;
480
}
481
*/
482
483
484
485
486
487
488
489
490
491
492
493
494
495
/*
 * Comienza la redistribucion de los datos con el nuevo grupo de procesos.
 *
 * Primero se envia la configuracion a utilizar al nuevo grupo de procesos y a continuacion
 * se realiza el envio asincrono y/o sincrono si lo hay.
 *
 * En caso de que haya comunicacion asincrona, se comienza y se termina la funcion 
 * indicando que se ha comenzado un envio asincrono.
 *
 * Si no hay comunicacion asincrono se pasa a realizar la sincrona si la hubiese.
 *
 * Finalmente se envian datos sobre los resultados a los hijos y se desconectan ambos
 * grupos de procesos.
 */
496
/*
497
int start_redistribution(int iter, int numS, MPI_Request **comm_req) {
iker_martin's avatar
iker_martin committed
498
499
500
501
502
  int rootBcast = MPI_PROC_NULL;
  if(group->myId == ROOT) rootBcast = MPI_ROOT;

  // Enviar a los hijos que grupo de procesos son
  MPI_Bcast(&(group->grp), 1, MPI_INT, rootBcast, group->children);
503
  MPI_Bcast(&run_id, 1, MPI_INT, rootBcast, group->children);
iker_martin's avatar
iker_martin committed
504
505
  send_config_file(config_file, rootBcast, group->children);

506
  if(config_file->adr > 0) {
507
    results->async_start = MPI_Wtime();
508
509
510
511
512
513
    if(config_file->aib == MAL_USE_THREAD) {
      return thread_creation();
    } else {
      send_async(group->async_array, config_file->adr, group->myId, group->numP, ROOT, group->children, group->numS, comm_req, config_file->aib);
      return MAL_ASYNC_PENDING;
    }
514
  } 
515
  return end_redistribution(iter);
516
}
517
*/
518
519
520
/*
 * Crea una hebra para ejecutar una comunicación en segundo plano.
 */
521
/*
522
523
524
525
526
int thread_creation() {
  if(pthread_create(&async_thread, NULL, thread_async_work, NULL)) {
    printf("Error al crear el hilo\n");
    MPI_Abort(MPI_COMM_WORLD, -1);
    return -1;
iker_martin's avatar
iker_martin committed
527
  }
528
529
  return MAL_ASYNC_PENDING;
}
530
*/
531
532
533
534
535
536
/*
 * Comprobación por parte de una hebra maestra que indica
 * si una hebra esclava ha terminado su comunicación en segundo plano.
 *
 * El estado de la comunicación es devuelto al finalizar la función. 
 */
537
/*
538
int thread_check(int iter) {
539
  int all_completed = 0;
iker_martin's avatar
iker_martin committed
540

541
542
543
544
545
546
547
548
549
550
  // Comprueba que todos los hilos han terminado la distribucion (Mismo valor en commAsync)
  MPI_Allreduce(&group->commAsync, &all_completed, 1, MPI_INT, MPI_MAX, MPI_COMM_WORLD);
  if(all_completed != MAL_COMM_COMPLETED) return MAL_ASYNC_PENDING; // Continue only if asynchronous send has ended 

  if(pthread_join(async_thread, NULL)) {
    printf("Error al esperar al hilo\n");
    MPI_Abort(MPI_COMM_WORLD, -1);
    return -2;
  } 
  return end_redistribution(iter);
551
}
552
*/
553
554
555
556
557
558
559
560
/*
 * Función ejecutada por una hebra.
 * Ejecuta una comunicación síncrona con los hijos que
 * para el usuario se puede considerar como en segundo plano.
 *
 * Cuando termina la comunicación la hebra maestra puede comprobarlo
 * por el valor "commAsync".
 */
561
/*
562
563
564
565
void* thread_async_work(void* void_arg) {
  send_sync(group->async_array, config_file->adr, group->myId, group->numP, ROOT, group->children, group->numS);
  group->commAsync = MAL_COMM_COMPLETED;
  pthread_exit(NULL);
iker_martin's avatar
iker_martin committed
566
}
567
*/
568
/*
569
 * @deprecated
570
571
572
573
574
575
576
 * Comprueba si la redistribucion asincrona ha terminado. 
 * Si no ha terminado la funcion termina indicandolo, en caso contrario,
 * se continua con la comunicacion sincrona, el envio de resultados y
 * se desconectan los grupos de procesos.
 *
 * Esta funcion permite dos modos de funcionamiento al comprobar si la
 * comunicacion asincrona ha terminado.
577
578
 * Si se utiliza el modo "MAL_USE_NORMAL" o "MAL_USE_POINT", se considera 
 * terminada cuando los padres terminan de enviar.
579
580
581
 * Si se utiliza el modo "MAL_USE_IBARRIER", se considera terminada cuando
 * los hijos han terminado de recibir.
 */
582
/*
583
int check_redistribution(int iter, MPI_Request **comm_req) {
584
  int completed, all_completed, test_err;
585
  MPI_Request *req_completed;
iker_martin's avatar
iker_martin committed
586

587
588
589
590
591
592
593
594
595
596
  if (config_file->aib == MAL_USE_POINT) {
    test_err = MPI_Testall(group->numS, *comm_req, &completed, MPI_STATUSES_IGNORE);
  } else {
    if(config_file->aib == MAL_USE_NORMAL) {
      req_completed = &(*comm_req)[0];
    } else if (config_file->aib == MAL_USE_IBARRIER) {
      req_completed = &(*comm_req)[1];
    }
    test_err = MPI_Test(req_completed, &completed, MPI_STATUS_IGNORE);
  }
597
 
598
  if (test_err != MPI_SUCCESS && test_err != MPI_ERR_PENDING) {
599
    printf("P%d aborting -- Test Async\n", group->myId);
600
601
602
603
    MPI_Abort(MPI_COMM_WORLD, test_err);
  }

  MPI_Allreduce(&completed, &all_completed, 1, MPI_INT, MPI_MIN, MPI_COMM_WORLD);
604
  if(!all_completed) return MAL_ASYNC_PENDING; // Continue only if asynchronous send has ended 
605
  
606
607
608

  if(config_file->aib == MAL_USE_IBARRIER) {
    MPI_Wait(&(*comm_req)[0], MPI_STATUS_IGNORE); // Indicar como completado el envio asincrono
609
    //Para la desconexión de ambos grupos de procesos es necesario indicar a MPI que esta comm
610
    //ha terminado, aunque solo se pueda llegar a este punto cuando ha terminado
611
  }
612
613
614
  free(*comm_req);
  return end_redistribution(iter);
}
615
*/
616
617
618
619
620
621
622
623
624

/*
 * Termina la redistribución de los datos con los hijos, comprobando
 * si se han realizado iteraciones con comunicaciones en segundo plano
 * y enviando cuantas iteraciones se han realizado a los hijos.
 *
 * Además se realizan las comunicaciones síncronas se las hay.
 * Finalmente termina enviando los datos temporales a los hijos.
 */ 
625
/*
626
627
628
629
int end_redistribution(int iter) {
  int rootBcast = MPI_PROC_NULL;
  if(group->myId == ROOT) rootBcast = MPI_ROOT;

630
  if(config_file->sdr > 0) { // Realizar envio sincrono
631
      results->sync_start = MPI_Wtime();
632
    send_sync(group->sync_array, config_file->sdr, group->myId, group->numP, ROOT, group->children, group->numS);
633
634
  }

635
  MPI_Bcast(&iter, 1, MPI_INT, rootBcast, group->children);
636
  send_results(results, rootBcast, config_file->resizes, group->children);
637
638
639
  // Desconectar intercomunicador con los hijos
  MPI_Comm_disconnect(&(group->children));
  return MAL_COMM_COMPLETED;
iker_martin's avatar
iker_martin committed
640
}
641
*/
642
643
644
645
646
647
/*
 * Inicializacion de los datos de los hijos.
 * En la misma se reciben datos de los padres: La configuracion
 * de la ejecucion a realizar; y los datos a recibir de los padres
 * ya sea de forma sincrona, asincrona o ambas.
 */
648
/*
iker_martin's avatar
iker_martin committed
649
650
651
652
void Sons_init() {

  // Enviar a los hijos que grupo de procesos son
  MPI_Bcast(&(group->grp), 1, MPI_INT, ROOT, group->parents);
653
  MPI_Bcast(&run_id, 1, MPI_INT, ROOT, group->parents);
iker_martin's avatar
iker_martin committed
654
655
656
657
  group->grp++;

  config_file = recv_config_file(ROOT, group->parents);
  int numP_parents = config_file->procs[group->grp -1];
658
659
  results = malloc(sizeof(results_data));
  init_results_data(results, config_file->resizes - 1, config_file->iters[group->grp]);
iker_martin's avatar
iker_martin committed
660

661
  if(config_file->adr) { // Recibir datos asincronos
662
663
664
665
666
667
    if(config_file->aib == MAL_USE_NORMAL || config_file->aib == MAL_USE_IBARRIER || config_file->aib == MAL_USE_POINT) {
      recv_async(&(group->async_array), config_file->adr, group->myId, group->numP, ROOT, group->parents, numP_parents, config_file->aib);
    } else if (config_file->aib == MAL_USE_THREAD) {
      recv_sync(&(group->async_array), config_file->adr, group->myId, group->numP, ROOT, group->parents, numP_parents);
    }

668
      results->async_end = MPI_Wtime();
669
  }
670
  if(config_file->sdr) { // Recibir datos sincronos
iker_martin's avatar
iker_martin committed
671
    recv_sync(&(group->sync_array), config_file->sdr, group->myId, group->numP, ROOT, group->parents, numP_parents);
672
    results->sync_end = MPI_Wtime();
iker_martin's avatar
iker_martin committed
673
  }
674
  MPI_Bcast(&(group->iter_start), 1, MPI_INT, ROOT, group->parents);
675
676
677

  // Guardar los resultados de esta transmision
  recv_results(results, ROOT, config_file->resizes, group->parents);
iker_martin's avatar
iker_martin committed
678
679
680
681

  // Desconectar intercomunicador con los hijos
  MPI_Comm_disconnect(&(group->parents));
}
682
*/